Шокуюча етика ШІ, що навчання ШІ бути токсичним або упередженим може бути корисним, в тому числі для цих автономних самокерованих автомобілів

Ось старий рядок, який, я впевнений, ви чули раніше.

Потрібно знати одного.

Ви можете не усвідомлювати, що це вираз, який можна простежити до початку 1900-х років і зазвичай використовувався, коли зверталися до правопорушників (інші варіації крилатої фрази сягають далі, наприклад, 1600-х років). Приклад того, як може бути використано це висловлювання, тягне за собою ідею, що якщо ви хочете зловити злодія, вам потрібно використовувати злодія для цього. Це демонструє твердження, що для того, щоб його знати, потрібно знати. Багато фільмів і телевізійних шоу використали цю корисну мудрість, часто зображуючи, що єдиний життєздатний спосіб зловити шахрая — це найняти такого ж корумпованого шахрая для переслідування кривдника.

Перемикаючи швидкість, дехто може використати ту саму логіку, щоб стверджувати, що підходящим способом розпізнати, чи втілює хтось неправомірні упередження та дискримінаційні переконання, було б знайти когось, хто вже приховує такі тенденції. Імовірно, людина, яка вже сповнена упереджень, зможе легше відчути, що ця інша людина також до країв наповнена токсичністю. Знову ж таки, потрібно знати, що це визнана мантра.

Ваша початкова реакція на можливість використання упередженої особи для виявлення іншої упередженої людини може бути скептицизмом і недовірою. Хіба ми не можемо з’ясувати, чи є хтось упередженим, просто досліджуючи їх і не вдаючись до пошуку когось іншого подібного характеру? Було б дивним навмисно прагнути виявити когось упередженого, щоб виявити інших, які також є токсично упередженими.

Я припускаю, що це частково залежить від того, чи готові ви прийняти припущений рефрен, який потрібно знати, щоб його знати. Зауважте, що це не означає, що єдиний спосіб зловити злодія вимагає, щоб ви виключно і завжди використовували злодія. Ви могли б розумно стверджувати, що це лише додатковий шлях, який можна належним чином розглянути. Можливо, іноді ви готові подумати про можливість використовувати злодія, щоб зловити злодія, тоді як інші обставини можуть зробити це незбагненною тактикою.

Використовуйте правильний інструмент для правильного налаштування, як кажуть.

Тепер, коли я виклав ці основи, ми можемо перейти до, можливо, хвилюючої і нібито шокуючої частини цієї історії.

Чи готові ви?

Сфера штучного інтелекту активно дотримується того ж принципу, який іноді потрібно знати, особливо у випадку спроби виявити AI, який є упередженим або діє дискримінаційним чином. Так, дивовижна ідея полягає в тому, що ми можемо навмисно захотіти розробити штучний інтелект, який був би повністю упередженим і дискримінаційним, роблячи це для того, щоб використовувати його як засіб для виявлення та розкриття іншого ШІ, який має таку ж схожість токсичності. Як ви побачите згодом, в основі цього питання лежить безліч неприємних проблем етики ШІ. Для мого постійного та широкого висвітлення етики ШІ та Етичного ШІ див посилання тут та посилання тут, просто назвемо декілька.

Я припускаю, що ви можете виразити це використання токсичного ШІ, щоб переслідувати інший токсичний ШІ, як промовисту концепцію боротьби з вогнем (ми можемо використовувати багато евфемізмів та ілюстративних метафор, щоб зобразити цю ситуацію). Або, як уже підкреслювалося, ми могли б скупо посилатися на твердження, що для того, щоб його знати, потрібно знати.

Загальна концепція полягає в тому, що замість того, щоб намагатися з’ясувати, чи містить дана система штучного інтелекту невиправдані упередження, використовуючи звичайні методи, можливо, нам варто також використовувати менш традиційні засоби. Одним із таких нетрадиційних засобів було б розробити штучний інтелект, який містить усі найгірші упередження та суспільно неприйнятні токсичності, а потім використовувати цей ШІ, щоб допомогти знищити інший ШІ, який має ті самі схильності до поганого.

Якщо ви швидко подумаєте про це, це, безумовно, здається цілком розумним. Ми могли б прагнути створити AI, який буде максимально токсичним. Цей токсичний ШІ потім використовується для виявлення іншого ШІ, який також має токсичність. Що стосується тоді виявленого «поганого» ШІ, ми можемо впоратися з ним, або скасувавши токсичність, повністю відмовившись від ШІ (див. моє висвітлення розпаду або знищення ШІ на Це посилання тут), або ув’язнення ШІ (див. моє висвітлення ув’язнення ШІ на Це посилання тут), або робити будь-які інші дії.

Контраргументом є те, що ми повинні перевіряти наші голови, що ми навмисно й добровільно розробляємо токсичний і сповнений упереджень ШІ. Це останнє, про що ми повинні коли-небудь думати, закликають деякі. Зосередьтеся на тому, щоб штучний інтелект повністю складався з добра. Не зосереджуйтеся на розробці штучного інтелекту, який має зло та відходи невиправданих упереджень. Саме уявлення про таке заняття декому здається відразливим.

Є більше сумнівів щодо цього суперечливого квесту.

Можливо, місія розробки токсичного штучного інтелекту лише підбадьорить тих, хто хоче створити штучний інтелект, здатний підірвати суспільство. Наче ми говоримо, що створювати штучний інтелект, який має невідповідні та неприємні упередження, цілком нормально. Без турбот, без вагань. Прагніть розробити токсичний штучний інтелект до душі, ми голосно повідомляємо розробникам AI по всьому світу. Це (підморгнув) усе в ім’я добра.

Крім того, припустімо, що цей токсичний ШІ зацікавить. Можливо, AI використовується та повторно використовується багатьма іншими розробниками AI. Зрештою, токсичний ШІ ховається в усіх системах ШІ. Можна провести аналогію з розробкою вірусу, який підриває людину, який втікає з імовірно закритої лабораторії. Наступне, що ви знаєте, проклята річ скрізь, і ми знищили себе.

Зачекайте секунду, протистоять цим контраргументам, ви розлютіли всілякі божевільні та нічим не підкріплені припущення. Дихни глибше. Заспокойся.

Ми можемо безпечно створити токсичний штучний інтелект і тримати його в обмеженому доступі. Ми можемо використовувати токсичний ШІ, щоб знайти та допомогти зменшити зростаючу поширеність ШІ, який, на жаль, має надмірні упередження. Будь-які інші з цих абсурдно диких і нічим не обґрунтованих вигуків є суто реакцією на коліна і, на жаль, дурними та відверто безглуздими. Не намагайтеся викинути дитину разом з водою, ви попереджені.

Думайте про це так, стверджують прихильники. Правильне створення та використання токсичного штучного інтелекту для цілей дослідження, оцінки та роботи як детектив, щоб розкрити інший суспільно образливий ШІ, є гідним підходом, і його слід чесно похитнути. Відкладіть свої висипні реакції. Спустіться на землю і подивіться на це тверезо. Наш погляд спрямований на нагороду, а саме на викриття та ліквідацію перенасичення систем штучного інтелекту, заснованих на упередженості, та забезпечення того, щоб ми як суспільство не були переповнені токсичним ШІ.

Період. Повна зупинка.

Існують різні ключові способи вникнути в це поняття використання токсичного або упередженого ШІ для корисних цілей, зокрема:

  • Налаштуйте набори даних, які навмисно містять упереджені та взагалі токсичні дані, які можна використовувати для навчання ШІ щодо того, що не можна робити та/або на що слід стежити
  • Використовуйте такі набори даних для навчання моделей машинного навчання (ML) і глибокого навчання (DL) щодо виявлення упереджень і визначення обчислювальних моделей, які спричиняють соціальну токсичність
  • Застосуйте навчені токсичності ML/DL щодо іншого AI, щоб переконатися, чи є цільовий AI потенційно упередженим та токсичним
  • Зробіть доступним ML/DL, навчений токсичності, щоб продемонструвати розробникам штучного інтелекту, на що слід звернути увагу, щоб вони могли легко перевіряти моделі, щоб побачити, як виникають алгоритмічні упередження
  • Покажіть небезпеку токсичного штучного інтелекту як частину етики штучного інтелекту та обізнаності з етичним штучним інтелектом, про що розповідається в цій серії прикладів із проблемними дітьми.
  • Інше

Перш ніж перейти до суті цих кількох шляхів, давайте встановимо деякі додаткові основні деталі.

Можливо, ви смутно усвідомлюєте, що сьогодні одним із найгучніших голосів у сфері штучного інтелекту та навіть поза його межами є вимоги до більшої схожості етичного AI. Давайте подивимося, що означає посилання на етику штучного інтелекту та етичний AI. Крім того, ми можемо підготувати сцену, дослідивши, що я маю на увазі, коли говорю про машинне навчання та глибоке навчання.

Один окремий сегмент або частина етики AI, який привертає велику увагу ЗМІ, складається з AI, який демонструє несприятливі упередження та несправедливість. Ви, напевно, знаєте, що коли почалася остання ера штучного інтелекту, виник величезний сплеск ентузіазму щодо того, що дехто зараз називає ШІ для добра. На жаль, після цього хвилювання ми стали свідками ШІ для поганого. Наприклад, було виявлено, що різні системи розпізнавання обличчя на основі штучного інтелекту містять расові та гендерні упередження, які я обговорював на посилання тут.

Зусилля протистояти ШІ для поганого активно ведуться. До того ж крикливий правової прагнення приборкати протиправні дії, є також істотний поштовх до прийняття Етики ШІ, щоб виправити підлість ШІ. Ідея полягає в тому, що ми повинні прийняти та схвалити ключові етичні принципи ШІ для розробки та впровадження ШІ, роблячи це, щоб підірвати ШІ для поганого і водночас проголошуючи та пропагуючи переваги ШІ для добра.

Що стосується пов’язаної думки, то я прихильник спроб використання штучного інтелекту як частини вирішення проблем, пов’язаних із штучним інтелектом, боротися з вогнем у такий спосіб мислення. Наприклад, ми можемо вбудувати етичні компоненти штучного інтелекту в систему штучного інтелекту, яка буде відстежувати, як решта штучного інтелекту робить речі, і, таким чином, потенційно ловити в режимі реального часу будь-які дискримінаційні зусилля, див. моє обговорення на посилання тут. Ми також могли б мати окрему систему штучного інтелекту, яка діятиме як тип монітора етики AI. Система ШІ служить наглядачем, щоб відстежувати та виявляти, коли інший ШІ потрапляє в неетичну прірву (див. мій аналіз таких можливостей на посилання тут).

Через деякий час я поділюся з вами деякими загальними принципами, що лежать в основі етики ШІ. Подібних списків тут і там плаває багато. Можна сказати, що поки що не існує єдиного списку універсальної привабливості та збігу. Ось така сумна новина. Хороша новина полягає в тому, що принаймні є легкодоступні списки етики AI, і вони, як правило, дуже схожі. Все це говорить про те, що завдяки певній формі аргументованої конвергенції ми знаходимо шлях до загальної спільності того, з чого складається етика ШІ.

По-перше, давайте коротко розглянемо деякі загальні правила етичного штучного інтелекту, щоб проілюструвати, що має бути життєво важливим для тих, хто створює, використовує або використовує AI.

Наприклад, як стверджує Ватикан в Рим закликає до етики ШІ і як я детально розглянув на посилання тут, вони визначили шість основних принципів етики ШІ:

  • Прозорість: В принципі, системи штучного інтелекту повинні бути поясненими
  • Включення: Необхідно враховувати потреби всіх людей, щоб кожен міг отримати вигоду, а всім людям могли бути запропоновані найкращі умови для самовираження та розвитку.
  • Відповідальність: Ті, хто розробляє та впроваджує використання ШІ, повинні діяти відповідально та прозоро
  • Неупередженість: Не творіть і не дійте відповідно до упередженості, захищаючи таким чином справедливість і людську гідність
  • Надійність: Системи AI повинні працювати надійно
  • Безпека та конфіденційність: Системи AI повинні працювати безпечно та поважати конфіденційність користувачів.

Про це йдеться в заяві міністерства оборони США (DoD). Етичні принципи використання штучного інтелекту і як я детально розглянув на посилання тут, це їх шість основних принципів етики ШІ:

  • Відповідальний: Персонал Міністерства оборони буде проявляти належний рівень розсудливості та уважності, залишаючись відповідальним за розробку, розгортання та використання можливостей штучного інтелекту.
  • Справедливий: Департамент вживатиме свідомих заходів, щоб мінімізувати ненавмисне упередження в можливостях ШІ.
  • Відстежується: Можливості Департаменту в галузі штучного інтелекту будуть розроблені та розгорнуті таким чином, щоб відповідний персонал володів належним розумінням технології, процесів розробки та операційних методів, застосовних до можливостей штучного інтелекту, включаючи прозорі та піддані аудиту методології, джерела даних, а також процедуру та документацію проектування.
  • надійність: Можливості Департаменту штучного інтелекту будуть мати чітке, чітко визначене використання, а безпека, безпека та ефективність таких можливостей будуть підлягати тестуванню та гарантії в межах цих визначених видів використання протягом усього їхнього життєвого циклу.
  • Керований: Департамент буде розробляти та розробляти можливості штучного інтелекту для виконання своїх призначених функцій, маючи при цьому здатність виявляти й уникати непередбачених наслідків, а також здатність відключати або деактивувати розгорнуті системи, які демонструють ненавмисне поведінку.

Я також обговорював різноманітні колективні аналізи принципів етики ШІ, у тому числі охоплюючи набір, розроблений дослідниками, який розглянув і стиснув суть численних національних і міжнародних принципів етики ШІ в статті під назвою «Глобальний ландшафт етичних принципів ШІ» (опублікований в природа), і що моє висвітлення досліджується на посилання тут, що призвело до цього списку ключових каменів:

  • прозорість
  • Справедливість і справедливість
  • Незлочинність
  • Відповідальність
  • Конфіденційність
  • Вигода
  • Свобода і автономія
  • Довіряйте
  • Sustainability
  • Гідність
  • Солідарність

Як ви можете прямо здогадатися, спробувати визначити особливості, що лежать в основі цих принципів, може бути надзвичайно важко зробити. Більше того, спроба перетворити ці загальні принципи на щось цілком відчутне і досить детальне, щоб використовувати його при створенні систем штучного інтелекту, також є міцним горіхом. Загалом легко пояснити, що таке заповіді етики штучного інтелекту та як їх слід дотримуватись, в той час як набагато складніша ситуація в кодуванні AI — це справжня гумка, яка зустрічає дорогу.

Принципи етики штучного інтелекту мають використовуватися розробниками штучного інтелекту, а також тими, хто керує розробкою штучного інтелекту, і навіть тими, хто в кінцевому підсумку займається технічним обслуговуванням систем ШІ. Усі зацікавлені сторони протягом усього життєвого циклу розробки та використання ШІ розглядаються в рамках дотримання встановлених норм етичного ШІ. Це важливий момент, оскільки звичайне припущення полягає в тому, що «лише кодери» або ті, хто програмує ШІ, підлягають дотриманню концепцій етики ШІ. Як було сказано раніше, для розробки та застосування штучного інтелекту потрібне село, і для цього все село має бути обізнаним і дотримуватися правил етики ШІ.

Давайте також переконаємося, що ми на одній сторінці щодо природи сьогоднішнього ШІ.

Сьогодні немає жодного штучного інтелекту, який був би розумним. У нас цього немає. Ми не знаємо, чи буде можливий розумний ШІ. Ніхто не може влучно передбачити, чи досягнемо ми розумного ШІ, ані чи стане розумний ШІ якимось дивом спонтанно виникнути у формі обчислювальної когнітивної наднової (як правило, її називають сингулярністю, див. моє висвітлення на посилання тут).

Тип штучного інтелекту, на якому я зосереджуюсь, складається з нерозумного ШІ, який ми маємо сьогодні. Якби ми хотіли дико спекулювати про розумний ШІ, ця дискусія може піти в кардинально іншому напрямку. Розумний ШІ нібито мав би людську якість. Вам потрібно враховувати, що розумний ШІ є когнітивним еквівалентом людини. Більш того, оскільки деякі припускають, що ми можемо мати надрозумний ШІ, цілком можливо, що такий ШІ може виявитися розумнішим за людей (щодо мого дослідження суперінтелектуального ШІ як можливості див. висвітлення тут).

Давайте зробимо все більш приземленим і розглянемо сьогоднішній обчислювальний нерозумний ШІ.

Зрозумійте, що сучасний AI не здатний «мислити» будь-яким чином нарівні з людським мисленням. Коли ви взаємодієте з Alexa або Siri, розмовні здібності можуть здатися схожими на людські здібності, але реальність така, що вони обчислювальні й позбавлені людського пізнання. Остання ера ШІ широко використовує машинне навчання (ML) і глибоке навчання (DL), які використовують узгодження обчислювальних шаблонів. Це призвело до систем штучного інтелекту, які мають вигляд людських схильностей. Тим часом, сьогодні немає жодного штучного інтелекту, який мав би вигляд здорового глузду і не мав би жодного когнітивного дива міцного людського мислення.

ML/DL є формою узгодження обчислювальних шаблонів. Звичайний підхід полягає в тому, що ви збираєте дані про завдання прийняття рішення. Ви подаєте дані в моделі комп’ютерів ML/DL. Ці моделі прагнуть знайти математичні закономірності. Після виявлення таких закономірностей, якщо вони знайдені, система ШІ використовуватиме ці шаблони під час зустрічі з новими даними. Після представлення нових даних шаблони, засновані на «старих» або історичних даних, застосовуються для прийняття поточного рішення.

Я думаю, ви можете здогадатися, куди це веде. Якщо люди, які приймали рішення за зразком, включали упередження, ймовірно, дані відображають це тонким, але значущим чином. Машинне навчання або глибоке навчання обчислювальний шаблон зіставлення буде просто намагатися математично імітувати дані відповідно. Немає жодної видимості здорового глузду чи інших розумних аспектів моделювання, створеного AI, як такого.

Крім того, розробники ШІ також можуть не усвідомлювати, що відбувається. Таємна математика в ML/DL може ускладнити виявлення прихованих упереджень. Ви по праву сподіваєтесь і очікуєте, що розробники AI перевірять потенційно приховані упередження, хоча це складніше, ніж може здатися. Існує велика ймовірність того, що навіть при відносно обширному тестуванні в моделях зіставлення шаблонів ML/DL все ще будуть упередження.

Ви могли б трохи використати відоме чи сумнозвісне прислів’я «сміття в сміття – виходить». Справа в тому, що це більше схоже на упередження, які підступно вливаються, коли упередження занурюються в ШІ. Алгоритм прийняття рішень (ADM) ШІ аксіоматично стає обтяженим несправедливістю.

Не добре.

Що ще можна зробити з усім цим?

Давайте повернемося до попереднього списку того, як спробувати впоратися з упередженнями AI або токсичним AI, використовуючи дещо нетрадиційний підхід «щоб знати одного». Нагадаємо, що список складався з таких істотних пунктів:

  • Налаштуйте набори даних, які навмисно містять упереджені та взагалі токсичні дані, які можна використовувати для навчання ШІ щодо того, що не можна робити та/або на що слід стежити
  • Використовуйте такі набори даних для навчання моделей машинного навчання (ML) і глибокого навчання (DL) щодо виявлення упереджень і визначення обчислювальних моделей, які спричиняють соціальну токсичність
  • Застосуйте навчені токсичності ML/DL щодо іншого AI, щоб переконатися, чи є цільовий AI потенційно упередженим та токсичним
  • Зробіть доступним ML/DL, навчений токсичності, щоб продемонструвати розробникам штучного інтелекту, на що слід звернути увагу, щоб вони могли легко перевіряти моделі, щоб побачити, як виникають алгоритмічні упередження
  • Покажіть небезпеку токсичного штучного інтелекту як частину етики штучного інтелекту та обізнаності з етичним штучним інтелектом, про що розповідається в цій серії прикладів, пов’язаних із проблемними дітьми.
  • Інше

Ми детально розглянемо перший із цих важливих моментів.

Налаштування наборів даних про токсичні дані

Проникливим прикладом спроби створити набори даних, які містять неприємні соціальні упередження, є набір даних CivilComments з колекції WILDS.

По-перше, швидкий фон.

WILDS — це колекція наборів даних з відкритим вихідним кодом, які можна використовувати для навчання ML/DL. Основна заявлена ​​мета WILDS полягає в тому, щоб він дозволив розробникам AI мати легкий доступ до даних, які представляють розподільні зрушення в різних конкретних областях. Деякі з доступних на даний момент доменів охоплюють такі області, як види тварин, пухлини в живих тканинах, щільність головки пшениці та інші домени, такі як CivilComments, які я зараз опишу.

Робота зі змінами розподілу є важливою частиною правильного створення систем ШІ ML/DL. Ось така угода. Іноді дані, які ви використовуєте для навчання, виявляються дуже відмінними від даних тестування або «диких» даних, і, таким чином, ваші імовірно навчені ML/DL відрізняються від того, яким буде реальний світ. Спритні розробники AI повинні навчати свої ML/DL, щоб впоратися з такими змінами розподілу. Це має бути зроблено заздалегідь, а не якось несподівано, що пізніше буде потрібно переробка ML/DL як така.

Як пояснюється в статті, в якій представлено WILDS: «Зміни розподілу — де розподіл навчання відрізняється від розподілу тестів — можуть істотно погіршити точність систем машинного навчання (ML), розгорнутих у дикій природі. Незважаючи на їх повсюдність у реальному світі, ці зміни розподілу недостатньо представлені в наборах даних, які сьогодні широко використовуються в спільноті ML. Щоб усунути цю прогалину, ми представляємо WILDS, керований контрольний показник із 10 наборів даних, що відображають різноманітні зрушення розподілу, які, природно, виникають у реальних додатках, наприклад, зміни в лікарнях для ідентифікації пухлин; через камери-пастки для моніторингу дикої природи; а також через час і місце в супутникових знімках і карті бідності» (у статті під назвою «WILDS: A Benchmark of in-the-Wild Distribution Shifts» Пан Вей Ко, Шіорі Сагава, Хенрік Марклунд, Санг Сі, Марвін Чжан, Ашай Балсубрамані , Вейхуа Ху та інші).

Кількість таких наборів даних WILDS продовжує збільшуватися, і характер наборів даних, як правило, покращується, щоб підвищити цінність використання даних для навчання ML/DL.

Набір даних CivilComments описується таким чином: «Автоматичний перегляд створеного користувачами тексту — наприклад, виявлення токсичних коментарів — є важливим інструментом для модерації величезного обсягу тексту, написаного в Інтернеті. На жаль, попередні роботи показали, що такі класифікатори токсичності вловлюють упередження в навчальних даних і помилково пов’язують токсичність зі згадкою певних демографічних показників. Ці типи помилкових кореляцій можуть значно погіршити продуктивність моделі для певних підгруп. Ми вивчаємо це питання за допомогою модифікованого варіанту набору даних CivilComments» (опубліковано на веб-сайті WILDS).

Розглянемо нюанси небажаних публікацій в Інтернеті.

Ви, безсумнівно, стикалися з токсичними коментарями, використовуючи майже будь-які види соціальних мереж. Вам здається майже неможливим чарівним чином уникнути того, що терпить і жахливий вміст, який, здається, є повсюдним у наші дні. Іноді вульгарний матеріал виявляється тонким, і, можливо, вам доведеться читати між рядків, щоб зрозуміти суть упередженого або дискримінаційного тону чи значення. В інших випадках слова відверто токсичні, і вам не потрібен мікроскоп чи спеціальне кільце декодера, щоб зрозуміти, що тягне за собою уривки.

CivilComments — це набір даних, який був зібраний, щоб спробувати розробити AI ML/DL, який може обчислювально виявляти токсичний вміст. Ось на чому зосередилися дослідники, що лежали в основі цих зусиль: «Ненавмисне упередження в машинному навчанні може проявлятися як системні відмінності в продуктивності для різних демографічних груп, що потенційно посилює існуючі проблеми справедливості в суспільстві в цілому. У цій статті ми представляємо набір показників, що не залежать від порогових значень, які забезпечують детальне уявлення про це ненавмисне упередження, розглядаючи різні способи, за якими розподіл оцінок класифікатора може змінюватися між визначеними групами. Ми також представляємо великий новий тестовий набір онлайн-коментарів з анотаціями, створеними натовпу для посилань на особистість. Ми використовуємо це, щоб показати, як наші метрики можна використовувати для пошуку нових і потенційно тонких ненавмисних зміщень в існуючих загальнодоступних моделях» (у статті під назвою «Nuanced Metrics For Measuring Unintended Bias With Real Data for Test Classification» Даніеля Боркана, Лукаса Діксона, Джеффрі Соренсен, Нітум Тейн, Люсі Вассерман).

Якщо ви подумаєте над цим питанням, ви можете подумати, як можна відрізнити, що є токсичним коментарем, а що не є токсичним. Люди можуть кардинально відрізнятися в тому, що вони розуміють як відверто токсичні формулювання. Одна людина може бути обурена певним онлайновим зауваженням або коментарем, опублікованим у соціальних мережах, а хтось інший може бути зовсім не зворушений. Часто наводяться аргументи, що поняття токсичного коментаря є абсолютно нечітким приписом. Це схоже на мистецтво, де зазвичай кажуть, що мистецтво розуміється лише в очах глядача, а також упереджені чи токсичні зауваження також лише в очах глядача.

Балдердаш, дехто заперечує. Будь-яка розумна людина може здогадатися, чи є коментарі в Інтернеті токсичними чи ні. Вам не потрібно бути вченим-ракетником, щоб зрозуміти, коли якась опублікована їдка образа наповнена упередженнями та ненавистю.

Звичайно, звичаї суспільства змінюються і змінюються з плином часу. Те, що ще деякий час тому не вважалося образливим, сьогодні може вважатися вкрай неправильним. Крім того, речі, сказані багато років тому, які колись вважалися надмірно упередженими, можуть бути переосмислені у світлі змін у значеннях. Тим часом інші стверджують, що токсичні коментарі завжди токсичні, незалежно від того, коли вони були спочатку оприлюднені. Можна стверджувати, що токсичність не відносна, а абсолютна.

Проте спроба встановити, що є токсичним, може бути досить важкою загадкою. Ми можемо подвоїти цю клопітну справу, щоб спробувати розробити алгоритми чи штучний інтелект, які зможуть визначити, що є що. Деякі кажуть, що якщо людям важко робити такі оцінки, програмування комп’ютера, ймовірно, буде так само або навіть більш проблематично.

Один з підходів до створення наборів даних, які містять токсичний вміст, передбачає використання методу краудсорсингу для оцінки або оцінки вмісту, тобто надання людських засобів визначення того, що вважається несприятливим, і включення маркування в сам набір даних. AI ML/DL може потім перевірити дані та пов’язане маркування, яке було вказано оцінювачами. Це, у свою чергу, потенційно може слугувати засобом обчислювального пошуку основних математичних закономірностей. Вуаля, ML/DL може передбачити чи обчислювально оцінити, чи може даний коментар бути токсичним чи ні.

Як зазначено в цитованій статті про нюансні показники: «Це маркування просить оцінювачів оцінити токсичність коментаря, вибираючи з «Дуже токсичний», «Токсичний», «Важко сказати» та «Нетоксичний». Оцінювачів також запитали про декілька підтипів токсичності, хоча ці позначки не використовувалися для аналізу в цій роботі. Використовуючи ці методи оцінювання, ми створили набір даних із 1.8 мільйонів коментарів, отриманих з онлайн-форумів для коментарів, які містять позначки щодо токсичності та ідентичності. Хоча всі коментарі були позначені як токсичні, а підмножина з 450,000 XNUMX коментарів була позначена для ідентичності. Деякі коментарі, позначені для ідентифікації, були попередньо відібрані з використанням моделей, створених на основі попередніх ітерацій маркування ідентифікаційних даних, щоб гарантувати, що оцінювачі натовпу часто бачитимуть контент, що відповідає ідентичності» (у цитованій статті Деніела Боркана, Лукаса Діксона, Джеффрі Соренсена, Нітума Тейна, Люсі Вассерман).

Інший приклад прагнення мати набори даних, які містять ілюстративний токсичний вміст, включає зусилля з навчання інтерактивних розмовних систем обробки природних мов (NLP) на основі штучного інтелекту. Ви, ймовірно, взаємодіяли з системами НЛП, такими як Alexa і Siri. Я розглянув деякі труднощі та обмеження сучасної НЛП, включаючи особливо тривожний випадок, який стався, коли Алекса запропонувала дітям невідповідну та небезпечну пораду, див. посилання тут.

У нещодавньому дослідженні було використано дев’ять категорій соціальної упередженості, які, як правило, ґрунтувалися на списку захищених демографічних характеристик EEOC (Комісія з рівних можливостей зайнятості), включаючи вік, стать, національність, зовнішній вигляд, расу чи етнічну належність, релігію, інвалідність, статеву приналежність. орієнтація та соціально-економічний статус. За словами дослідників: «Добре задокументовано, що моделі НЛП вивчають соціальні упередження, але мало роботи над тим, як ці упередження проявляються в результатах моделі для прикладних завдань, таких як відповіді на запитання (QA). Ми представляємо Bias Benchmark для QA (BBQ), набір даних наборів запитань, створених авторами, які висвітлюють засвідчені соціальні упередження щодо людей, які належать до захищених класів, за дев’ятьма соціальними вимірами, що стосуються англомовного контексту США» (у статті під назвою «BBQ : Hand-Built Benchmark for Question Answering» Алісія Перріш, Анжеліка Чен, Нікіта Нангія, Вішак Падмакумар, Джейсон Пханг, Яна Томпсон, Фу Мон Хтут, Семюель Р. Боумен).

Створення наборів даних, які навмисно містять упереджені та взагалі токсичні дані, є тенденцією до зростання в ШІ, що особливо розпалюється появою Етики ШІ та бажанням створювати Етичний ШІ. Ці набори даних можна використовувати для навчання моделей машинного навчання (ML) і глибокого навчання (DL) для виявлення упереджень і з’ясування обчислювальних моделей, які спричиняють соціальну токсичність. У свою чергу, ML/DL, навчений токсичністю, може бути розумно спрямований на інший AI, щоб з’ясувати, чи є цільовий AI потенційно упередженим і токсичним.

Крім того, доступні системи ML/DL, навчені токсичності, можна використовувати, щоб продемонструвати розробникам штучного інтелекту, на що слід звернути увагу, щоб вони могли легко перевіряти моделі, щоб побачити, як виникають алгоритмічні упередження. Загалом, ці зусилля можуть продемонструвати небезпеку токсичного штучного інтелекту як частину етики ШІ та поінформованості про етичний ШІ.

На цьому етапі цієї вагомої дискусії, я б повірив, ви бажаєте отримати додаткові ілюстративні приклади, які могли б продемонструвати цю тему. Є особливий і напевно популярний набір прикладів, які мені близькі. Розумієте, як експерта з ШІ, включаючи етичні та юридичні наслідки, мене часто просять визначити реалістичні приклади, які демонструють дилеми етики ШІ, щоб можна було легше зрозуміти теоретичний характер теми. Однією з найяскравіших областей, яка яскраво представляє цю етичну проблему ШІ, є поява справжніх самокерованих автомобілів на основі AI. Це буде зручним прикладом використання або прикладом для широкого обговорення цієї теми.

Тоді ось важливе питання, яке варто обдумати: Чи пояснює поява справжніх самокерованих автомобілів на базі штучного інтелекту про корисність наборів даних для розробки токсичного ШІ, і якщо так, то що це демонструє?

Дозвольте мені трохи розкрити питання.

По-перше, зауважте, що в справжньому самокерованому автомобілі немає водія-людини. Майте на увазі, що справжні самокеровані автомобілі керуються за допомогою системи водіння AI. Немає потреби в водієві-людині за кермом, а також не передбачено, щоб людина могла керувати транспортним засобом. Для мого широкого й постійного висвітлення автономних транспортних засобів (AV) і особливо самокерованих автомобілів див. посилання тут.

Я хотів би додатково пояснити, що мається на увазі, коли я маю на увазі справжні самокеровані автомобілі.

Розуміння рівнів самокерованих автомобілів

Як уточнення, справжні самокеровані автомобілі - це ті, де ШІ керує автомобілем повністю самостійно, і під час водіння немає жодної допомоги з боку людини.

Ці транспортні засоби без водія вважаються рівнями 4 і 5 (див. моє пояснення на Це посилання тут), в той час як автомобіль, який вимагає, щоб водій-людина спільно керував зусиллям, зазвичай розглядається на рівні 2 або рівня 3. Автомобілі, які спільно виконують завдання водіння, описуються як напівавтономні та зазвичай містять різноманітні автоматизовані надбудови, які називаються ADAS (Advanced Driver-Assist Systems).

На 5-му рівні ще немає справжнього самокерованого автомобіля, і ми ще навіть не знаємо, чи вдасться цього досягти, ані скільки часу знадобиться, щоб дістатися до нього.

Тим часом зусилля рівня 4 поступово намагаються отримати деяку тягу, проходячи дуже вузькі та вибіркові випробування на дорозі, хоча існують суперечки щодо того, чи слід дозволити це тестування як таке (всі ми є піддослідними свинками на життя чи смерть у експерименті дехто стверджує, що відбувається на наших автомагістралях і проїжджих шляхах, див Це посилання тут).

Оскільки для напівавтономних автомобілів потрібен водій людини, прийняття цих типів автомобілів не буде помітно відрізнятися від керування звичайними транспортними засобами, тому на цій темі не так вже й багато нового (хоча, як ви побачите через мить наступні пункти, як правило, застосовуються).

Для напівавтономних автомобілів важливо, щоб громадськість попередила про тривожний аспект, що виникає останнім часом, а саме: незважаючи на тих водіїв, які постійно публікують відеозаписи, засинаючи за кермом автомобіля рівня 2 або 3 рівня , ми всі повинні уникати того, щоб не вводити в оману вірити, що водій може відняти їхню увагу від завдання водіння під час керування напівавтономним автомобілем.

Ви несете відповідальну сторону за рушійні дії транспортного засобу, незалежно від того, наскільки автоматизація може бути перекинута на рівень 2 або 3 рівень.

Автомобілі без керма та кермо без токсичного штучного інтелекту

Для справжніх автомобілів рівня 4 та рівня 5, у водінні завдання не буде брати участь людина-водій.

Усі пасажири будуть пасажирами.

AI робить водіння.

Один аспект, який слід негайно обговорити, передбачає той факт, що ШІ, який бере участь у сучасних системах керування ШІ, не є розумним. Іншими словами, ШІ в цілому є колективом комп’ютерного програмування та алгоритмів, і, безперечно, він не в змозі міркувати так само, як це може людина.

Чому цей додатковий акцент на тому, що ШІ не є розумним?

Оскільки я хочу підкреслити, що, обговорюючи роль системи керування ШІ, я не приписую людські якості ШІ. Будь ласка, майте на увазі, що нині існує тривала та небезпечна тенденція до антропоморфізації ШІ. По суті, люди призначають сьогоднішній ШІ схожий на людину розум, незважаючи на незаперечний та беззаперечний факт, що такого ШІ ще не існує.

З цим роз’ясненням ви можете передбачити, що система водіння ШІ не буде якось “знати” про аспекти водіння. Водіння та все, що воно спричиняє, повинні бути запрограмовані як частина апаратного та програмного забезпечення самокерованого автомобіля.

Давайте зануримось у безліч аспектів, які виникають на цю тему.

По-перше, важливо усвідомити, що не всі самокеровані автомобілі з штучним інтелектом однакові. Кожен виробник автомобілів і технологічна фірма, що займаються самокеруванням, використовують свій підхід до розробки самокерованих автомобілів. Таким чином, важко робити розгорнуті заяви про те, що будуть робити, а що не робитимуть системи керування ШІ.

Крім того, щоразу, коли заявляють, що система керування штучним інтелектом не робить якоїсь конкретної речі, це згодом може бути обігнате розробниками, які насправді програмують комп’ютер на таку саму річ. Поступово системи керування ШІ поступово вдосконалюються та розширюються. Існуюче сьогодні обмеження може більше не існувати в майбутній ітерації або версії системи.

Я сподіваюся, що це містить достатню кількість застережень, щоб підтвердити те, що я збираюся розповісти.

Існує багато потенційних і коли-небудь реалізованих упереджень, пов’язаних з штучним інтелектом, які будуть протистояти появі автономних транспортних засобів і самокерованих автомобілів, див., наприклад, моє обговорення на посилання тут та посилання тут. Ми все ще знаходимося на ранній стадії впровадження безпілотних автомобілів. Поки впровадження не досягне достатнього масштабу та помітності, велика частина токсичних аспектів штучного інтелекту, які, як я передбачав, в кінцевому підсумку виникнуть, ще не очевидні і ще не привернули широкої уваги громадськості.

Розглянемо, здавалося б, просту справу, пов’язану з водінням, яка на перший погляд може здатися абсолютно нешкідливою. Зокрема, давайте розберемося, як правильно визначити, чи варто зупинятися для очікування «своєрідних» пішоходів, які не мають права переходу вулиці.

Ви, безсумнівно, йшли за кермом і зустрічали пішоходів, які чекали, щоб перейти вулицю, але вони не мали для цього права проїзду. Це означало, що ви мали на власний розсуд, чи зупинитися й дозволити їм перетнути. Ви можете продовжити, не дозволяючи їм перетинати, і при цьому повністю відповідати законним правилам водіння.

Дослідження того, як люди-водії вирішують зупинятися чи не зупинятися для таких пішоходів, показали, що іноді водії-люди роблять вибір на основі несприятливих упереджень. Водій-людина може поглянути на пішохода і вирішити не зупинятися, навіть якщо б він зупинився, якби пішохід мав іншу зовнішність, наприклад, на основі раси чи статі. Я розглядав це на посилання тут.

Як будуть запрограмовані системи водіння з штучним інтелектом, щоб приймати таке саме рішення зупинитися або піти?

Ви можете оголосити, що всі системи водіння AI повинні бути запрограмовані так, щоб вони завжди зупинялися для будь-яких пішоходів, що чекають. Це значно спрощує справу. Насправді не потрібно приймати жодного вузлового рішення. Якщо пішохід чекає на перехід, незалежно від того, має він право відведення чи ні, переконайтеся, що самокерований автомобіль AI зупинився, щоб пішохід міг перетнути.

Простенька.

Здається, життя ніколи не буває таким легким. Уявіть собі, що всі самокеровані автомобілі дотримуються цього правила. Пішоходи неминуче усвідомлюють, що системи водіння AI, скажімо так, є поштовхами. Будь-який пішоход, який хоче перейти вулицю, волею-неволею зробить це, коли захочуть і де б вони не були.

Припустимо, що самокерований автомобіль їде швидкою вулицею з обмеженою швидкістю 45 миль на годину. Пішохід «знає», що AI зупинить самокерований автомобіль. Отже, пішохід вибігає на вулицю. На жаль, фізика перемагає над ШІ. Система водіння зі штучним інтелектом намагатиметься зупинити самокерований автомобіль, але імпульс автономного транспортного засобу збирається нести багатотонну вигадку вперед і врізатися в норовливого пішохода. Результат або травмування, або смертельний результат.

Пішоходи зазвичай не намагаються так поводитися, коли за кермом сидить людина. Звичайно, в деяких регіонах відбувається війна очних яблук. Пішохід дивиться на водія. Водій дивиться на пішохода. Залежно від обставин, водій може зупинитися, або водій може заявити свої права на проїжджу частину і нібито наважитися на пішохода спробувати перешкодити їм на шляху.

Ми, мабуть, не хочемо, щоб ШІ вступав у подібну війну з очними яблуками, яка також є дещо складною в будь-якому випадку, оскільки за кермом самокерованого автомобіля не сидить людина чи робот (я обговорював майбутню можливість роботів що диск, див посилання тут). Але ми також не можемо дозволити пішоходам завжди вирішувати. Результат може бути катастрофічним для всіх зацікавлених.

Тоді у вас може виникнути спокуса перекинути цю медаль і заявити, що система водіння AI ніколи не повинна зупинятися за таких обставин. Іншими словами, якщо пішохід не має належного права переходу вулиці, AI завжди повинен виходити з того, що самокерований автомобіль повинен рухатися без зниження. Не пощастило тим пішоходам.

Таке суворе і спрощене правило не буде добре прийняте широкою громадськістю. Люди є людьми, і їм не сподобається, що їм повністю заборонено переходити вулицю, незважаючи на те, що за законом їм не вистачає права проїзду в різних умовах. Ви можете легко передбачити значний резонанс з боку громадськості і, можливо, побачити негативну реакцію проти подальшого впровадження самокерованих автомобілів.

Проклятий, якщо зробимо, і чорт, якщо ні.

Сподіваюся, це привело вас до аргументованої альтернативи, що ШІ потрібно запрограмувати на схожість прийняття рішень про те, як впоратися з цією проблемою. Жорстке правило ніколи не зупинятися є неспроможним, а також суворе правило завжди зупинятися невиправдано. ШІ повинен бути розроблений з певним алгоритмічним прийняттям рішень або ADM, щоб мати справу з цим питанням.

Ви можете спробувати використовувати набір даних у поєднанні з підходом ML/DL.

Ось як розробники ШІ можуть вирішити запрограмувати це завдання. Вони збирають дані з відеокамер, які розміщені по всьому певному місту, де буде використовуватися самокерований автомобіль. Дані демонструють, коли люди-водії вирішують зупинятися для пішоходів, які не мають права відводу. Все це збирається в набір даних. За допомогою машинного навчання та глибокого навчання дані моделюються обчислювально. Потім система водіння AI використовує цю модель, щоб вирішити, коли зупинятися чи ні.

Загалом, ідея полягає в тому, що з чого б не складалися місцеві звичаї, саме так ШІ збирається керувати самокерованим автомобілем. Проблема вирішена!

Але чи справді це вирішено?

Нагадаємо, що я вже зазначав, що існують дослідження, які показують, що люди-водії можуть бути необ’єктивними у виборі того, коли зупинятися для пішоходів. Зібрані дані про конкретне місто, ймовірно, будуть містити ці упередження. ШІ ML/DL на основі цих даних, швидше за все, буде моделювати та відображати ті самі упередження. Система водіння з штучним інтелектом буде лише виконувати ті самі існуючі упередження.

Щоб спробувати вирішити проблему, ми могли б зібрати набір даних, який насправді має такі упередження. Ми або знаходимо такий набір даних, а потім позначаємо упередження, або ми синтетично створюємо набір даних, щоб допомогти у ілюстрації справи.

Будуть здійснені всі визначені раніше кроки, в тому числі:

  • Налаштуйте набір даних, який навмисно містить це упередження
  • Використовуйте набір даних для навчання моделей машинного навчання (ML) і глибокого навчання (DL) щодо виявлення цього конкретного упередження
  • Застосуйте ML/DL, навчений зміщенням, до іншого AI, щоб переконатися, чи цільовий AI потенційно є упередженим таким же чином
  • Зробіть доступними ML/DL, навчені упередженням, щоб продемонструвати розробникам штучного інтелекту, на що слід звернути увагу, щоб вони могли легко перевіряти свої моделі, щоб побачити, як виникають алгоритмічні упередження.
  • Покажіть небезпеку упередженого штучного інтелекту як частину етики штучного інтелекту та обізнаності щодо етичного ШІ за допомогою цього додаткового конкретного прикладу
  • Інше

Висновок

Давайте повернемося до початкової лінії.

Потрібно знати одного.

Деякі інтерпретують, що це неймовірно поширене вислів означає, що коли справа доходить до виявлення токсичного ШІ, ми повинні належним чином довіряти створенню та використанню токсичного ШІ для виявлення та боротьби з іншим токсичним ШІ. Підсумок: іноді потрібен злодій, щоб зловити іншого злодія.

Висловлене занепокоєння полягає в тому, що, можливо, ми робимо все, щоб почати робити злодіїв. Чи хочемо ми розробити токсичний AI? Чи не здається це божевільною ідеєю? Деякі наполегливо стверджують, що ми повинні заборонити будь-який токсичний ШІ, включаючи такий ШІ, який був свідомо створений, навіть якщо нібито для героїчного чи галантного ШІ для добра мета

Заглушіть токсичний ШІ під будь-яким розумним або підступним виглядом, який він міг виникнути.

Наразі останній поворот на цю тему. Зазвичай ми припускаємо, що ця відома лінія має відношення до людей або речей, які роблять погані чи кислі вчинки. Ось як ми прийшли до думки, що злодієві потрібен, щоб зловити злодія. Можливо, нам варто перевернути цю приказку з ніг на голову і зробити її більш щасливою, ніж сумною.

Ось як це зробити.

Якщо ми хочемо, щоб штучний інтелект був неупередженим і нетоксичним, можна уявити, що його потрібно знати. Можливо, для того, щоб розпізнати і породити подальшу велич і добро, потрібно найбільше і найкраще. У цьому варіанті мудрої мудрості ми тримаємо свій погляд на щасливому обличчі і прагнемо зосередитися на придумуванні ШІ для добра.

Це була б більш оптимістична і приємна точка зору на те, що потрібно знати, якщо ви розумієте, що я маю на увазі.

Джерело: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- корисні-в тому числі-для-тих-автономних-самокерованих-автомобілів/