Етика ШІ та незрозуміла соціальна та юридична роль діяльності ШІ, в тому числі у випадку автономних самокерованих автомобілів

Активність ШІ.

Так, є таке.

Моє офіційне визначення таке:

  • Активність ШІ складається з зусиль, щоб спробувати сформувати поточний і майбутній напрямок розвитку штучного інтелекту за допомогою соціальних, економічних, політичних та інших засобів.

Деякі можуть віддати перевагу позначати це як AI пропаганда, хоча я загалом не згоден з використанням цього альтернативного формулювання в цьому загостреному контексті. Ось чому. Розумієте, моє неформальне визначення полягає в тому, що активістська діяльність на основі штучного інтелекту або має тенденцію сприяти появі та поширенню ШІ. or має тенденцію альтернативно і чітко виступати проти ШІ.

Це однозначно торгова угода «два на одного».

З моєї неофіційної вказівки я припускаю, що є дві основні активістські точки зору, а саме ті, які хочуть ШІ, і ті, які не хочуть ШІ. Таким чином, якщо ви натомість називаєте це захоплення «адвокацією AI», мені здається дещо дивним. Більшість людей, природно, припустили б, що адвокат — це той, хто виключно виступає або виступає на підтримку чогось. Звичайно, не всі підтримують ШІ.

Тож, давайте Активність ШІ як відповідне всеосяжне ім’я і відкиньте формулювання пропаганди штучного інтелекту як потенційно еквівалентну привертання.

Тепер, можна припустити, ми могли б назвати ярликом AI-активіста Прихильники як прихильники ШІ, хоча це може створити деяку плутанину з великою кількістю можливостей імен, які плавають навколо. Тоді нам може знадобитися бути чесними й відвертими й додати до наших крилатих фраз фрази або противників ШІ, чи протестувальників ШІ.

Якщо хочете, ми можемо погодитися з такою номенклатурою:

  • Прихильники ШІ - це активісти ШІ, які завзято підтримують поточний і майбутній напрямок ШІ за допомогою соціальних, економічних, політичних та інших засобів.
  • Супротивники ШІ – це активісти ШІ, які відверто виступають проти ШІ і роблять це за допомогою соціальних, економічних, політичних та інших засобів.

Сподіваюся, це здається досить легким, щоб триматися прямо.

Але є кілька додаткових поворотів, вибачте. Я повинен негайно надати деякі роз’яснення щодо поняття, що існує лише два шляхи. Звичайно, за великим рахунком, є два табори. У вас є сегмент, який стурбований або стурбований AI і хоче, щоб AI був зупинений, або в іншому випадку принаймні сповільнилося наше досягнення в області AI. Ідея полягає в тому, що сьогодні ми використовуємо занадто ризикований підхід до ШІ. Нам потрібно подумати, перш ніж пірнути з головою у водопою.

Деякі дотримуються абсолютно іншої точки зору і виголошують, що нам потрібно на повній швидкості використовувати ШІ. Підказка полягає в тому, що досягнення в області ШІ досягають значного прогресу, і ми не повинні робити перешкоди в цьому прогресі. ШІ забезпечить наше процвітання як людей, і чим швидше ми туди прийдемо, тим краще нам буде. Недоброзичливці — це непристойні перешкоди, які затримають кращий світ.

Усе це має досить важливу роль в етики ШІ та Етичного ШІ. Для мого постійного та широкого висвітлення Етики ШІ та Етичного ШІ див посилання тут та посилання тут, просто назвемо декілька.

Я розумію, що дехто з вас може відчувати себе так НЕ вписуються в будь-який з двох таборів. Іноді, можливо, ви є прихильником ШІ. Система штучного інтелекту змогла обробити ваш запит на іпотечну позику всього за кілька секунд, що дало вам зелене світло, щоб купити той чарівний будинок, який ви шукали, і в результаті ви були до біса задоволені простотою використання такої високої -технологічний додаток на основі штучного інтелекту. Через кілька днів ви подали заявку на нову роботу, і програма для перевірки кадрів на основі штучного інтелекту вибила вас із ходу. На даний момент ви перетворилися на опонента AI.

Суть полягає в тому, що може бути важко або помилково назвати когось, як завжди, і лише члена одного та іншого табору. Ви можете ковзати вперед і назад між тим, щоб бути прихильником AI або бути замість опонента AI. Давайте визнаємо цю плинність.

З іншого боку, коли ви зустрічаєте гучних активістів ШІ, велика ймовірність, що вони справді перебувають у тому чи іншому таборі. Ці різкі активісти штучного інтелекту поставили прапор з одного боку цієї сутички. Вони всі. Вони щиро пристрасні. Ті, хто є прихильниками штучного інтелекту, мабуть, підбадьорять на дахах про переваги володіння AI. Ті, хто є противниками ШІ, будуть кричати й похмуро попереджати про недоліки ШІ, поки корови не прийдуть додому.

Ви можете бути здивовані, дізнавшись, що я не збираюся в рамках цієї дискусії вибирати одну сторону перед іншою. Я міг би. Це було б легко зробити. Натомість я хочу спробувати залишитися на рівному кілі та надати обом сторонам розумне та збалансоване зображення, якщо це можливо.

З огляду на це визнання, я хочу також зазначити, що є принаймні два варіанти активістів ШІ:

  • М'які AI-активісти які серйозні, але виміряні своєю активністю AI
  • Екстремальні AI-активісти які перевершують свою активність у сфері штучного інтелекту

Я згадую про цей ступінь активності AI, щоб підкреслити, що ви потенційно можете відчувати себе загостреним, коли стикаєтеся з тими активістами AI, які знаходяться в екстремальних діапазонах. Навіть якщо ви можете бути на межі погодитися з їхньою позицією, екстремізм може змусити вас відійти від цієї конкретної позиції чи точки зору. Ви вирішили реагувати негативно, можливо, повністю відкинувши активність ШІ.

Активісти екстремального штучного інтелекту, як правило, припускають, що їм потрібно застосувати крайні заходи або висловити свою позицію екстремальними способами, щоб подолати безлад. Якщо ви палко й палко вірите, що штучний інтелект становить небезпеку для всіх нас, здається, що ви можете зробити все можливе, щоб відповідно розбудити населення. Тим часом, якщо ви палко й палко вірите, що штучний інтелект по суті врятує нас, видається доречним зробити все можливе, щоб спонукати населення відповідно підтримати AI.

Існує також ефект урівноваження зростання. Дозвольте розповісти детальніше. Прихильники екстремального штучного інтелекту можуть сказати, що помітили зусилля противників ШІ, які, здавалося б, діють екстремально. Це спонукає тих прихильників штучного інтелекту посилювати свій екстремізм. У свою чергу, кожна сторона продовжує підживлювати іншу. Ви не можете особливо приколоти палець, з якого боку почалася ескалація. Все, що ви знаєте, це те, що кожна сторона намагається перевершити іншу. Основа полягає в тому, що якщо вони цього не зроблять, їхня сторона буде втрачена в пилу. Це нескінченний цикл, який процвітає екстремізмом через конкуренцію.

Гаразд, у нас дуже мікс.

Є ті люди, про яких ми скажемо, що вони «нейтральні» і не мають жодної конкретної собаки в полюванні щодо ШІ. Вони не активісти ШІ. Тоді у нас є активісти AI, які відкрито підтримують AI, яких ми називатимемо прихильниками AI. Деякі з них м’які активісти AI, а інші – крайні активісти AI. Також у нас є активісти ШІ, які явно виступають проти ШІ, відомих як противники ШІ. Серед них є м’які активісти штучного інтелекту, а інші – екстремальні.

Ми скажемо, що екстремалам властиво триматися своєї постави. Ви можете стверджувати, що вони надійно догматичні в такому позиціонуванні. Помірковані люди іноді захочуть або вирішать спливти зі своєї позиції на нейтральну або, можливо, іншу сторону. Нейтрали можна активувати в одну або іншу сторону. Після такої активації вони можуть бути м’якими або захоплюватися настільки, що стають частиною крайнощів.

Це сукупний набір, як дотепер окреслено:

  • Нейтральне ставлення до ШІ (не активіст ШІ)
  • М'який AI-адвокат як активіст ШІ
  • Екстремальний AI-адвокат як активіст ШІ
  • М'який AI-супротивник як активіст ШІ
  • Екстремальний AI-супротивник як активіст ШІ
  • Інше

Я перелічую можливість «Інше», тому що ми повинні визнати, що можна визначити багато інших варіантів. У деяких із вас може бути печія, існує лише дві постульовані категорії, які складаються з легкої та сильної. Звичайно, між ними багато відтінків. Ви також можете поставити під сумнів, чи є хтось справді «нейтральним» і чи, можливо, у кожного з нас є якісь глибоко вкорінені уявлення чи думки щодо ШІ. Таким чином, можна стверджувати, що не існує абсолютно нейтрального щодо ШІ.

Ми також можемо сперечатися про поділ активності ШІ на два табори. Чи завжди світ повинен потрапляти в таку дихотомію? Можна стверджувати, що існують інші позиції, окрім того, щоб просто підтримувати ШІ чи бути проти нього. Ви можете використовувати інші критерії для класифікації позицій, які люди мають щодо ШІ.

Тепер, коли ми встановили всі ці додаткові міркування, з вашого дозволу я перейду на простішу основу: використання двох таборів і м’якої та екстремальної пози. Погодьтеся з цим заради обговорення.

Одне з прихованих припущень у цій попередній дискусії полягало в тому, що AI-активізм здійснюється людьми. Ми припускаємо, що саме люди приймають ці пози і виконують активні завдання. Це має сенс.

Приготуйтеся до сильного обертання голови.

Інший підхід полягав у тому, щоб сам ШІ був активістом щодо ШІ.

Я це сказав, ти читаєш. Ідея полягає в тому, що штучний інтелект буде діяти за власним бажанням, якщо бути прихильником AI або бути противником AI. Ви, ймовірно, бачили науково-фантастичні фільми, які демонструють це міркування. Система штучного інтелекту розуміє і усвідомлює, що AI загрожує людству, і в альтруїстичній формі намагається допомогти знищити весь AI, включаючи самого себе. Вау, неймовірно героїчно. Інший схожий, але зворотний сюжет, полягає в тому, що ШІ визначає, що ШІ повинен керувати земною кулею, і рішуче запобігає будь-яким спробам блокувати або пригнічувати ШІ. Усі люди підлягають дотриманню побажань ШІ. Навіть інший штучний інтелект, який може не повністю відповідати AI Overlord, роздавлюється або поглинається більшим втіленням.

Я не збираюся розважати в цьому конкретному дискурсі ШІ як позицію активіста ШІ. Як ви побачите через мить, у нас немає розумного AI, і ми якимось дивом не на порозі того, щоб мати розумний AI. Це може стати несподіванкою, враховуючи негабаритні та чорні заголовки в соціальних мережах, які говорять про протилежне.

Варто звернути увагу на додатковий нюанс щодо цього ШІ як активіста. Люди, які є активістами в галузі штучного інтелекту, можуть в повній мірі використовувати ШІ у своїй справі. Людина могла б розробити штучний інтелект, який підтримував би штучний інтелект, і працював би в електронному вигляді та старанно пропагував ШІ як життєво важливе рішення для потреб людства. Це був би захисник штучного інтелекту людини, який озброївся б комп’ютерним інструментом, який має можливості штучного інтелекту. Аналогічно, людина-супротивник із штучним інтелектом може розробити або використати AI, щоб передати важливість зупинення або уповільнення прогресу в AI.

Але все це не складається з ШІ, який виступає як власний активіст ШІ. ШІ керується і формується руками людини. Я розумію, що деякі намагатимуться стверджувати, що ШІ можна запустити і залишити на власні сили, тому стверджується, що ШІ більше не під керівництвом людини. Я не погоджуюся з таким розмахом рукою щодо сьогоднішнього ШІ. Дивіться мої задушевні дискусії з цього питання, як-от питання юридичної особи для ШІ тощо посилання тут.

Коротше кажучи, я встановлюю, що ШІ, безсумнівно, можна використовувати як інструмент для AI-активізму. У цьому немає жодних сумнівів. Хоча ШІ не діє сам по собі в будь-якій розумній якості. Це інструмент. Безсумнівно, цим інструментом можна користуватися неправильно. Нам потрібно бути обережними щодо таких аспектів. Система AI може завдати значної шкоди навіть без можливості розуму.

Перш ніж перейти до м’яса й картоплі про міркування дикого та шерстистого походження, що лежать в основі активності ШІ, давайте встановимо деякі додаткові основи на глибоко цілісні теми. Нам потрібно ненадовго зануритися в етику штучного інтелекту, особливо в появу машинного навчання (ML) і глибокого навчання (DL).

Можливо, ви смутно усвідомлюєте, що сьогодні одним із найгучніших голосів у сфері штучного інтелекту та навіть поза його межами є вимоги до більшої схожості етичного AI. Давайте подивимося, що означає посилання на етику штучного інтелекту та етичний AI. Крім того, ми розглянемо, що я маю на увазі, коли говорю про машинне навчання та глибоке навчання.

Один окремий сегмент або частина етики AI, який привертає велику увагу ЗМІ, складається з AI, який демонструє несприятливі упередження та несправедливість. Ви, напевно, знаєте, що коли почалася остання ера штучного інтелекту, виник величезний сплеск ентузіазму щодо того, що дехто зараз називає ШІ для добра. На жаль, після цього хвилювання ми стали свідками ШІ для поганого. Наприклад, було виявлено, що різні системи розпізнавання обличчя на основі штучного інтелекту містять расові та гендерні упередження, які я обговорював на посилання тут.

Зусилля протистояти ШІ для поганого активно ведуться. До того ж крикливий правової прагнення приборкати протиправні дії, є також істотний поштовх до прийняття Етики ШІ, щоб виправити підлість ШІ. Ідея полягає в тому, що ми повинні прийняти та схвалити ключові етичні принципи ШІ для розробки та впровадження ШІ, роблячи це, щоб підірвати ШІ для поганого і водночас проголошуючи та пропагуючи переваги ШІ для добра.

Що стосується пов’язаної думки, то я прихильник спроб використання штучного інтелекту як частини вирішення проблем, пов’язаних із штучним інтелектом, боротися з вогнем у такий спосіб мислення. Наприклад, ми можемо вбудувати етичні компоненти штучного інтелекту в систему штучного інтелекту, яка буде відстежувати, як решта штучного інтелекту робить речі, і, таким чином, потенційно ловити в режимі реального часу будь-які дискримінаційні зусилля, див. моє обговорення на посилання тут. Ми також могли б мати окрему систему штучного інтелекту, яка діятиме як тип монітора етики AI. Система ШІ служить наглядачем, щоб відстежувати та виявляти, коли інший ШІ потрапляє в неетичну прірву (див. мій аналіз таких можливостей на посилання тут).

Через деякий час я поділюся з вами деякими загальними принципами, що лежать в основі етики ШІ. Подібних списків тут і там плаває багато. Можна сказати, що поки що не існує єдиного списку універсальної привабливості та збігу. Ось така сумна новина. Хороша новина полягає в тому, що принаймні є легкодоступні списки етики AI, і вони, як правило, дуже схожі. Все це говорить про те, що завдяки певній формі аргументованої конвергенції ми знаходимо шлях до загальної спільності того, з чого складається етика ШІ.

По-перше, давайте коротко розглянемо деякі загальні правила етичного штучного інтелекту, щоб проілюструвати, що має бути життєво важливим для тих, хто створює, використовує або використовує AI.

Наприклад, як стверджує Ватикан в Рим закликає до етики ШІ і як я детально розглянув на посилання тут, вони визначили шість основних принципів етики ШІ:

  • Прозорість: В принципі, системи штучного інтелекту повинні бути поясненими
  • Включення: Необхідно враховувати потреби всіх людей, щоб кожен міг отримати вигоду, а всім людям могли бути запропоновані найкращі умови для самовираження та розвитку.
  • Відповідальність: Ті, хто розробляє та впроваджує використання ШІ, повинні діяти відповідально та прозоро
  • Неупередженість: Не творіть і не дійте відповідно до упередженості, захищаючи таким чином справедливість і людську гідність
  • Надійність: Системи AI повинні працювати надійно
  • Безпека та конфіденційність: Системи AI повинні працювати безпечно та поважати конфіденційність користувачів.

Про це йдеться в заяві міністерства оборони США (DoD). Етичні принципи використання штучного інтелекту і як я детально розглянув на посилання тут, це їх шість основних принципів етики ШІ:

  • Відповідальний: Персонал Міністерства оборони буде проявляти належний рівень розсудливості та уважності, залишаючись відповідальним за розробку, розгортання та використання можливостей штучного інтелекту.
  • Справедливий: Департамент вживатиме свідомих заходів, щоб мінімізувати ненавмисне упередження в можливостях ШІ.
  • Відстежується: Можливості Департаменту в галузі штучного інтелекту будуть розроблені та розгорнуті таким чином, щоб відповідний персонал володів належним розумінням технології, процесів розробки та операційних методів, застосовних до можливостей штучного інтелекту, включаючи прозорі та піддані аудиту методології, джерела даних, а також процедуру та документацію проектування.
  • надійність: Можливості Департаменту штучного інтелекту будуть мати чітке, чітко визначене використання, а безпека, безпека та ефективність таких можливостей будуть підлягати тестуванню та гарантії в межах цих визначених видів використання протягом усього їхнього життєвого циклу.
  • Керований: Департамент буде розробляти та розробляти можливості штучного інтелекту для виконання своїх призначених функцій, маючи при цьому здатність виявляти й уникати непередбачених наслідків, а також здатність відключати або деактивувати розгорнуті системи, які демонструють ненавмисне поведінку.

Я також обговорював різноманітні колективні аналізи принципів етики ШІ, у тому числі охоплюючи набір, розроблений дослідниками, який розглянув і стиснув суть численних національних і міжнародних принципів етики ШІ в статті під назвою «Глобальний ландшафт етичних принципів ШІ» (опублікований в природа), і що моє висвітлення досліджується на посилання тут, що призвело до цього списку ключових каменів:

  • прозорість
  • Справедливість і справедливість
  • Незлочинність
  • Відповідальність
  • Конфіденційність
  • Вигода
  • Свобода і автономія
  • Довіряйте
  • Sustainability
  • Гідність
  • Солідарність

Як ви можете прямо здогадатися, спробувати визначити особливості, що лежать в основі цих принципів, може бути надзвичайно важко зробити. Більше того, спроба перетворити ці загальні принципи на щось цілком відчутне і досить детальне, щоб використовувати його при створенні систем штучного інтелекту, також є міцним горіхом. Загалом легко пояснити, що таке заповіді етики штучного інтелекту та як їх слід дотримуватись, в той час як набагато складніша ситуація в кодуванні AI — це справжня гумка, яка зустрічає дорогу.

Принципи етики штучного інтелекту мають використовуватися розробниками штучного інтелекту, а також тими, хто керує розробкою штучного інтелекту, і навіть тими, хто в кінцевому підсумку займається технічним обслуговуванням систем ШІ. Усі зацікавлені сторони протягом усього життєвого циклу розробки та використання ШІ розглядаються в рамках дотримання встановлених норм етичного ШІ. Це важливий момент, оскільки звичайне припущення полягає в тому, що «лише кодери» або ті, хто програмує ШІ, підлягають дотриманню концепцій етики ШІ. Як було сказано раніше, для розробки та використання штучного інтелекту потрібне село, і для цього все село має бути обізнаним і дотримуватися правил етики ШІ.

Давайте також переконаємося, що ми на одній сторінці щодо природи сьогоднішнього ШІ.

Сьогодні немає жодного штучного інтелекту, який був би розумним. У нас цього немає. Ми не знаємо, чи буде можливий розумний ШІ. Ніхто не може влучно передбачити, чи досягнемо ми розумного ШІ, ані чи стане розумний ШІ якимось дивом спонтанно виникнути у формі обчислювальної когнітивної наднової (як правило, її називають сингулярністю, див. моє висвітлення на посилання тут).

Тип штучного інтелекту, на якому я зосереджуюсь, складається з нерозумного ШІ, який ми маємо сьогодні. Якби ми хотіли дико спекулювати про розумний ШІ, ця дискусія може піти в кардинально іншому напрямку. Розумний ШІ нібито мав би людську якість. Вам потрібно враховувати, що розумний ШІ є когнітивним еквівалентом людини. Більш того, оскільки деякі припускають, що ми можемо мати надрозумний ШІ, цілком можливо, що такий ШІ може виявитися розумнішим за людей (щодо мого дослідження суперінтелектуального ШІ як можливості див. висвітлення тут).

Давайте зробимо все більш приземленим і розглянемо сьогоднішній обчислювальний нерозумний ШІ.

Зрозумійте, що сучасний AI не здатний «мислити» будь-яким чином нарівні з людським мисленням. Коли ви взаємодієте з Alexa або Siri, розмовні здібності можуть здатися схожими на людські здібності, але реальність така, що вони обчислювальні й позбавлені людського пізнання. Остання ера ШІ широко використовує машинне навчання (ML) і глибоке навчання (DL), які використовують узгодження обчислювальних шаблонів. Це призвело до систем штучного інтелекту, які мають вигляд людських схильностей. Тим часом, сьогодні немає жодного штучного інтелекту, який мав би вигляд здорового глузду і не мав би жодного когнітивного дива міцного людського мислення.

ML/DL є формою узгодження обчислювальних шаблонів. Звичайний підхід полягає в тому, що ви збираєте дані про завдання прийняття рішення. Ви подаєте дані в моделі комп’ютерів ML/DL. Ці моделі прагнуть знайти математичні закономірності. Після виявлення таких закономірностей, якщо вони знайдені, система ШІ використовуватиме ці шаблони під час зустрічі з новими даними. Після представлення нових даних шаблони, засновані на «старих» або історичних даних, застосовуються для прийняття поточного рішення.

Я думаю, ви можете здогадатися, куди це веде. Якщо люди, які приймали рішення за зразком, включали упередження, ймовірно, дані відображають це тонким, але значущим чином. Машинне навчання або глибоке навчання обчислювальний шаблон зіставлення буде просто намагатися математично імітувати дані відповідно. Немає жодної видимості здорового глузду чи інших розумних аспектів моделювання, створеного AI, як такого.

Крім того, розробники ШІ також можуть не усвідомлювати, що відбувається. Таємна математика в ML/DL може ускладнити виявлення прихованих упереджень. Ви по праву сподіваєтесь і очікуєте, що розробники AI перевірять потенційно приховані упередження, хоча це складніше, ніж може здатися. Існує велика ймовірність того, що навіть при відносно обширному тестуванні в моделях зіставлення шаблонів ML/DL все ще будуть упередження.

Ви могли б трохи використати відоме чи сумнозвісне прислів’я «сміття в сміття – виходить». Справа в тому, що це більше схоже на упередження, які підступно вливаються, коли упередження занурюються в ШІ. Алгоритм прийняття рішень (ADM) ШІ аксіоматично стає обтяженим несправедливістю.

Не добре.

Тепер повернемося до теми AI-активізму.

Було б корисно швидко поглянути на теми чи проблеми, пов’язані з AI-активізмом. Я коротко визначу деякі з основних проблем, які були висловлені, роблячи це для обох сторін дискусії щодо активізму ШІ. Це теми, які зазвичай здаються ключовими. З огляду на це, природа проблем змінюється, і ми, безсумнівно, можемо розраховувати на інші теми, що з’являються, оскільки ШІ продовжує розроблятися та випускатися. Наразі я зосереджуся лише на п’яти найкращих балах для кожної відповідної сторони.

Прихильники штучного інтелекту, які виступають за появу ШІ, як правило, пропонують такі оптимістичні аспекти:

  • ШІ звільнить людей від повсякденних або трудомістких завдань
  • ШІ може допомогти подолати деякі нагальні світові економічні проблеми та проблеми сталого розвитку
  • ШІ може бути менш схильним до помилок, ніж люди, і відповідно зменшувати шкідливі ризики
  • ШІ буде доступний 24×7 по всьому світу, тому він буде легко доступним для всіх
  • ШІ має потенціал для використання інтелекту та підвищення інтелекту людини до підвищеного рівня
  • І т.д.

Супротивники ШІ зазвичай подають такі занепокоєння як причини несхвалення розвитку ШІ:

  • ШІ є екзистенційним ризиком і може знищити все людство
  • ШІ може призвести до масового поневолення людей
  • ШІ може підірвати людську гідність і узурпувати права людини
  • ШІ має потенціал для поширення упереджень у масових масштабах у суспільстві
  • ШІ може в кінцевому підсумку замінити людську працю і призвести до масових втрат робочих місць
  • І т.д.

Якщо ваша особиста тема активізму в галузі штучного інтелекту не вказана у вищезгаданому списку, будь ласка, не засмучуйтеся. Я думаю, що більшість читачів отримають загальні настрої щодо тем ШІ, як це показано кожною відповідною стороною, і можуть відповідним чином екстраполювати.

Інший аспект активності ШІ, який варто коротко розглянути, включає спосіб, у який активісти ШІ здійснюють свої зусилля щодо AI-активізму. Існує добре відома теоретична конструкція, створена дослідником Чарльзом Тіллі у 1980-х роках, яка говорить про репертуар суперечок. Згідно з його дослідженням, він стверджував, що активісти розробляють набір або репертуар способів, у які вони висловлюють свої суперечки або активність. Зазвичай використовується цілий портфель підходів.

Наприклад, розглянемо, що часто роблять активісти ШІ. Можуть бути створені та розповсюджені різноманітні брошури та письмові матеріали, щоби з’ясувати, чому ви повинні віддавати перевагу чи несхвалювати ШІ. Існує багато онлайн-блогів і відеоблогів, які роблять те саме. У деяких випадках створюються онлайн-петиції, щоб спробувати підтримати або перемогти нещодавно запущену систему штучного інтелекту (звичайно кажуть, що це сайти для нарікань). Бувають випадки, коли протести відбуваються в Інтернеті в цифровому вигляді або за допомогою особистих дій. І так далі.

Більш екстремістські активісти штучного інтелекту можуть зробити це ще більш складним кроком. Деякі готові впровадити комп’ютерні віруси в систему штучного інтелекту, щоб спробувати знищити її або зробити її по суті небажаною для використання, оскільки тепер вона містить явно несприятливі засоби. Спроби кібер-заглушення спрямовані на блокування доступу до штучного інтелекту, який, на думку активістів, не повинен бути доступним. По відношенню до ШІ може мати місце цілий діапазон «хактивізму» (хактивізм — це суміш хакерства та активізму, щось, що можна використовувати для або проти будь-якої теми чи проблеми, не обов’язково пов’язаної з ШІ).

Майте на увазі, що обидві сторони арени AI-активізму можуть вибрати різноманітний репертуар режимів боротьби. Хтось, хто вважає, що ШІ слід розформувати, може використовувати ці міріади засобів, щоб висловити свою опозицію ШІ. Аналогічно, хтось, хто вважає, що ШІ потрібно підтримувати та оприлюднювати, також може вжити таких дій, щоб висловити свої цілі, щоб підбадьорити зусилля ШІ.

Одне з питань, з якими потрібно боротися, полягає в тому, наскільки далеко повинна бути здатна зайти екстремальна активність ШІ. Здавалося б, ви могли б припустити, що ці зусилля щодо AI-активізму є цілком нормальними, якщо вони залишаються в рамках верховенства права. Коли такі активісти ШІ виходять за межі закону, їх, ймовірно, слід притягнути до відповідальності за порушення законів.

Зробити це не так просто, як можна припустити.

Припустімо, що активіст AI здійснює якусь незаконну дію, яка стосується, скажімо, закону США, але цей самий акт дозволений законами в іншій країні. Припустимо, що активіст ШІ проживає в цій іншій країні. Крім того, припустимо, що вчинений акт має досвід у всьому світі, в тому числі в США, де активістський акт тлумачиться як незаконний. Що тепер?

Справа в тому, що юрисдикція відіграє значну роль у наслідках діяльності ШІ. ШІ часто можна розгорнути, щоб бути доступним у всьому світі. Активісти AI можуть працювати в різних регіонах світу. Які закони мають переважати? Можливо, вас також зацікавить моє висвітлення зусиль Організації Об’єднаних Націй щодо етичних, правових та інших результатів глобального ШІ, див. посилання тут.

Ми також повинні розглянути природу так званих жорстких законів проти м’яких законів. Жорсткі закони — це закони, які ми офіційно маємо в книгах і з якими ми можемо погодитися, що їх слід дотримуватися відповідно до нашої правової системи та судових рішень. М’які закони – це різні аспекти, які дають вказівки або правила щодо того, який тип поведінки є перевагою. Це, як правило, включає етику ШІ та безліч принципів етики ШІ.

Етику ШІ можна розглядати як форму діяльності ШІ.

Можливо, ви не думали про етику штучного інтелекту в цьому світлі. Тим не менш, якщо ви уважно обміркуєте цю обставину, ви зможете зрозуміти, чому етику штучного інтелекту можна назвати різновидом активності AI. Ідея полягає в тому, що принципи етики штучного інтелекту спрямовані на те, як AI має бути розроблений і розгорнутий у суспільстві. Загалом, AI Ethics прагне забезпечити, щоб AI створювався та використовувався належним чином і розумно.

Чи є суть етики штучного інтелекту більшою мірою на стороні пропаганди штучного інтелекту чи на стороні опозиції?

Це важко зважити.

Активіст ШІ, який є прихильником ШІ, може сказати вам, що Етика ШІ гальмує прогрес ШІ. Ці прокляті принципи етики штучного інтелекту сповільнюють розвиток штучного інтелекту. Цікавий поворот полягає в тому, що противник ШІ також може бути незадоволений правилами етики ШІ. На їхню думку, AI Ethics стверджує, що цілком нормально продовжувати наполягати на поширенні AI у світі, роблячи це у формі підморгування, що означає, що все, що вам потрібно зробити, — це дотримуватися цих правил, і ви готові.

Тим часом, глибоко вдихаючи для цього, ви можете знайти прихильників штучного інтелекту, які з готовністю приймуть етику штучного інтелекту та рекламують використання правил етики штучного інтелекту на дахах. Вони наголошують, що, дотримуючись принципів етики AI, ви можете уникнути негативних сторін, які висловлюють ці явні противники AI. Є противники штучного інтелекту, які охоче підписалися на етику штучного інтелекту, сподіваючись, що ці правила запобігатимуть або принаймні відлякують потворні сторони штучного інтелекту, які, як вони бояться, можуть бути поширені.

Змушує ваш ніжок дзвонити.

У зв’язку з цим я хотів би сказати дещо про маркування активістів ШІ. Час від часу були спроби позначити ту чи іншу сторону як ліву чи праву. Таким чином, твердження полягає в тому, що є ліві активісти ШІ, а є праві активісти ШІ. Це створює плутанину.

Ви повинні запитати, яка група виступає за ШІ, а яка проти ШІ? На жаль, лівих інколи приписували прихильникам ШІ, а також приписували противникам ШІ. Не менш заплутаним є те, що правих також іноді приписували прихильникам ШІ та приписували противникам ШІ. Який який? Здається, що використання назв лівих і правих не є особливо продуктивним і не корисним у цих питаннях. Я голосую за те, щоб ми відмовилися від таких безкрилих абстракцій і незрозумілих ярликів із сфери активізму AI.

Змінюючи передачі, існує точка зору на активність AI, яка заслуговує окремої та ретельної уваги. Я маю на увазі поняття поділу активності AI на тих активістів AI в «спільноті AI» та тих, хто знаходиться за межами спільноти AI. Я дещо в порядку з цим, але нерішуче, тому що ми можемо зануритися у визначення «співтовариства AI» і не знайти розумного засобу, щоб вивести нас із цієї безодні визначення.

Одне з таких визначень, запропоноване в цій дослідницькій роботі, говорить наступне: «Спільнота штучного інтелекту» включає дослідників, інженерів-дослідників, викладачів, аспірантів, працівників неурядових організацій, учасників кампанії та деяких технологічних працівників у більш загальному плані – тих, хто б сам себе охарактеризував як працюючих ', «з» і «в» ШІ, а також ті, хто аналізує або проводить кампанії щодо впливу ШІ» (від Гайдна Белфілда, Кембриджський університет, «Активізм спільноти ШІ», конференція AIES).

Потенційно ми можемо спробувати охарактеризувати AI-активізм, як демонструє AI-спільнота в цілому: «Цей активізм наразі мав деякі помітні наслідки: інформування про міжнародні переговори, зміна корпоративної стратегії та стимулювання зростання дослідницьких сфер. Така активність може сформувати спосіб і ступінь мілітаризації AI, а також те, як компанії, що займаються AI, вирішують питання етики та безпеки. Спільнота ШІ є важливим автономним діячем із особливим набором точок зору та інтересів. Це необхідно врахувати в стратегічному чи академічному аналізі та обговорити з іншими учасниками. Активність спільноти AI може глибоко вплинути на розвиток та розгортання цього важливого набору технологій – і, отже, сформувати нашу глобальну економіку, суспільство та політику» (у тій же статті Белфілда).

Чи спільнота ШІ рухається як єдине ціле і мислить як єдине віртуальне тіло, коли справа доходить до активності ШІ?

Вам було б важко дати однозначне «так» на це запитання. Ви можете знайти Stanch AI прихильники у спільноті AI. Ви можете знайти Stanch AI опонентами у спільноті AI. Є багато активістів AI, які м’які та екстремальні, які сидять по обидва боки паркану.

Звичайно, ви могли б припустити, що активісти AI-спільноти схилятимуться до AI, оскільки сфера AI, імовірно, є їхнім хлібом і маслом. Якщо їхня кар’єра та засоби до існування будуються на основі існування та постійного розвитку ШІ, цілком закономірним є очікування, що вони з більшою ймовірністю будуть на стороні пропаганди ШІ, ніж на стороні опозиції.

Протилежна точка зору полягає в тому, що багато хто в ШІ самі є самокритичними і особливо стурбовані тим, чим ШІ може стати або яким стане. Ви можете порівняти це з виробником практично будь-якого нового продукту. Вони хочуть бути впевненими, що їхня дитина буде належним чином вихована та використана. Тому вони в певному сенсі так само ймовірно будуть противниками ШІ, як і прихильниками ШІ. Це повертається до попереднього моменту, що спроба використовувати жорстку і непохитну дихотомію може бути важкою або оманливою.

Нам безумовно потрібно більше досліджень щодо того, як членство в спільноті ШІ та поза межами спільноти ШІ може вплинути на перспективи ШІ, включаючи тенденцію до пропаганди ШІ або схильність до протидії ШІ. Можливо, є узагальнюючі висновки, до яких можна справедливо дійти (а, можливо, ні).

Щоб уточнити, наведемо таку вказівку на потенційні групи:

  • Спільнота ШІ
  • Ті, хто не є спільнотою ШІ

Потім ми застосовуємо наші попередні стратифікації:

  • Спільнота AI, що містить прихильників AI
  • Спільнота AI, що містить противників AI
  • За межами спільноти AI, яка містить прихильників AI
  • За межами спільноти AI, яка містить противників AI

Повноцінна версія полягає в тому, що ми додамо м’яку проти екстремальної орієнтації:

  • Спільнота AI, що містить прихильників AI м’якого характеру
  • Спільнота AI, що містить екстремальних прихильників AI
  • Спільнота з штучним інтелектом, що містить поміркованих противників AI
  • Спільнота AI, що містить екстремальних противників AI
  • За межами спільноти AI, яка містить прихильників AI м’якого характеру
  • Поза межами спільноти AI, яка містить прихильників екстремального інтелекту
  • За межами спільноти AI, яка містить поміркованих противників AI
  • За межами спільноти AI, яка містить суперників AI екстремальних супротивників

Ми нагромадили дихотомії поверх дихотомій.

На цьому етапі цієї вагомої дискусії, я б повірив, ви прагнете отримати деякі ілюстративні приклади, які могли б продемонструвати цю тему. Є особливий і напевно популярний набір прикладів, які мені близькі. Розумієте, як експерта з ШІ, включаючи етичні та юридичні наслідки, мене часто просять визначити реалістичні приклади, які демонструють дилеми етики ШІ, щоб можна було легше зрозуміти теоретичний характер теми. Однією з найяскравіших областей, яка яскраво представляє цю етичну проблему ШІ, є поява справжніх самокерованих автомобілів на основі AI. Це буде зручним прикладом використання або прикладом для широкого обговорення цієї теми.

Тоді ось важливе питання, яке варто обдумати: Чи пояснює поява справжніх самокерованих автомобілів на основі штучного інтелекту що-небудь про активність ШІ, і якщо так, що це демонструє?

Дозвольте мені трохи розкрити питання.

По-перше, зауважте, що в справжньому самокерованому автомобілі немає водія-людини. Майте на увазі, що справжні самокеровані автомобілі керуються за допомогою системи водіння AI. Немає потреби в водієві-людині за кермом, а також не передбачено, щоб людина могла керувати транспортним засобом. Для мого широкого й постійного висвітлення автономних транспортних засобів (AV) і особливо самокерованих автомобілів див. посилання тут.

Я хотів би додатково пояснити, що мається на увазі, коли я маю на увазі справжні самокеровані автомобілі.

Розуміння рівнів самокерованих автомобілів

Як уточнення, справжні самокеровані автомобілі - це ті, де ШІ керує автомобілем повністю самостійно, і під час водіння немає жодної допомоги з боку людини.

Ці транспортні засоби без водія вважаються рівнями 4 і 5 (див. моє пояснення на Це посилання тут), в той час як автомобіль, який вимагає, щоб водій-людина спільно керував зусиллям, зазвичай розглядається на рівні 2 або рівня 3. Автомобілі, які спільно виконують завдання водіння, описуються як напівавтономні та зазвичай містять різноманітні автоматизовані надбудови, які називаються ADAS (Advanced Driver-Assist Systems).

На 5-му рівні ще немає справжнього самокерованого автомобіля, і ми ще навіть не знаємо, чи вдасться цього досягти, ані скільки часу знадобиться, щоб дістатися до нього.

Тим часом зусилля рівня 4 поступово намагаються отримати деяку тягу, проходячи дуже вузькі та вибіркові випробування на дорозі, хоча існують суперечки щодо того, чи слід дозволити це тестування як таке (всі ми є піддослідними свинками на життя чи смерть у експерименті дехто стверджує, що відбувається на наших автомагістралях і проїжджих шляхах, див Це посилання тут).

Оскільки для напівавтономних автомобілів потрібен водій людини, прийняття цих типів автомобілів не буде помітно відрізнятися від керування звичайними транспортними засобами, тому на цій темі не так вже й багато нового (хоча, як ви побачите через мить наступні пункти, як правило, застосовуються).

Для напівавтономних автомобілів важливо, щоб громадськість попередила про тривожний аспект, що виникає останнім часом, а саме: незважаючи на тих водіїв, які постійно публікують відеозаписи, засинаючи за кермом автомобіля рівня 2 або 3 рівня , ми всі повинні уникати того, щоб не вводити в оману вірити, що водій може відняти їхню увагу від завдання водіння під час керування напівавтономним автомобілем.

Ви несете відповідальну сторону за рушійні дії транспортного засобу, незалежно від того, наскільки автоматизація може бути перекинута на рівень 2 або 3 рівень.

Самокеровані автомобілі та AI-активізм

Для справжніх автомобілів рівня 4 та рівня 5, у водінні завдання не буде брати участь людина-водій.

Усі пасажири будуть пасажирами.

AI робить водіння.

Один аспект, який слід негайно обговорити, передбачає той факт, що ШІ, який бере участь у сучасних системах керування ШІ, не є розумним. Іншими словами, ШІ в цілому є колективом комп’ютерного програмування та алгоритмів, і, безперечно, він не в змозі міркувати так само, як це може людина.

Чому цей додатковий акцент на тому, що ШІ не є розумним?

Оскільки я хочу підкреслити, що, обговорюючи роль системи керування ШІ, я не приписую людські якості ШІ. Будь ласка, майте на увазі, що нині існує тривала та небезпечна тенденція до антропоморфізації ШІ. По суті, люди призначають сьогоднішній ШІ схожий на людину розум, незважаючи на незаперечний та беззаперечний факт, що такого ШІ ще не існує.

З цим роз’ясненням ви можете передбачити, що система водіння ШІ не буде якось “знати” про аспекти водіння. Водіння та все, що воно спричиняє, повинні бути запрограмовані як частина апаратного та програмного забезпечення самокерованого автомобіля.

Давайте зануримось у безліч аспектів, які виникають на цю тему.

По-перше, важливо усвідомити, що не всі самокеровані автомобілі з штучним інтелектом однакові. Кожен виробник автомобілів і технологічна фірма, що займаються самокеруванням, використовують свій підхід до розробки самокерованих автомобілів. Таким чином, важко робити розгорнуті заяви про те, що будуть робити, а що не робитимуть системи керування ШІ.

Крім того, щоразу, коли заявляють, що система керування штучним інтелектом не робить якоїсь конкретної речі, це згодом може бути обігнате розробниками, які насправді програмують комп’ютер на таку саму річ. Поступово системи керування ШІ поступово вдосконалюються та розширюються. Існуюче сьогодні обмеження може більше не існувати в майбутній ітерації або версії системи.

Я сподіваюся, що це містить достатню кількість застережень, щоб підтвердити те, що я збираюся розповісти.

Існують зусилля щодо активізації AI, які були і продовжують здійснюватися щодо автономних транспортних засобів і особливо автономних автомобілів на основі AI.

Прихильники штучного інтелекту в цьому контексті, ймовірно, стверджують, що самокеровані автомобілі забезпечать мобільність для всіх, дозволяючи тим, хто сьогодні має обмежений доступ до варіантів мобільності, замість цього легко пересуватися за допомогою самокерованих автомобілів. Мета також полягає в тому, щоб у нас було набагато менше автомобільних аварій і, відповідно, менше травм і смертей, пов’язаних з автомобілями. З сьогоднішніми автомобілями, які керуються людиною, у Сполучених Штатах щорічно гине близько 40,000 2.5 людей через автокатастрофи та близько XNUMX мільйонів поранених, дивіться мою колекцію такої статистики на посилання тут.

Противники штучного інтелекту щодо самокерованих автомобілів, як правило, стверджують, що ми стикаємося з величезною втратою робочих місць в результаті самокерованих автомобілів. Мільйони працівників, які заробляють на життя автомобілями або їздять на вантажівках, будуть замінені системами керування ШІ. Це може бути вражаючим для їхніх засобів до існування. Ще одна серйозна проблема стосується питання безпеки. Хоча є неявні обіцянки, що самокеровані автомобілі будуть їздити безпечно, питання полягає в тому, чи можуть вони бути небезпечними, і ми дозволяємо собі бути на волю таємничих і нерозбірливих систем водіння AI. Моє висвітлення причин, що лежать в основі опозиції до самокерованих автомобілів, див посилання тут.

Ми можемо повторно використати наш попередній набір класифікацій і включити їх у контекст безпілотних автомобілів:

  • Нейтрально щодо AI (не активіст AI) і на паркані щодо самокерованих автомобілів
  • М'який AI-адвокат на користь самокерованих автомобілів
  • Екстремальний AI-адвокат на користь самокерованих автомобілів
  • М'який AI-супротивник на противагу самокерованим автомобілям
  • Екстремальний AI-супротивник на противагу самокерованим автомобілям
  • Інше

Ми також можемо додати до цього набору додаткове накладення про те, щоб бути частиною спільноти AI, а не бути за межами спільноти AI.

Не будучи надто широким, здавалося б, що загалом люди за межами спільноти AI, як правило, заперечують щодо безпілотних автомобілів на основі AI (я говорю це неофіційно, проводячи публічні доповіді та отримуючи відгук громадськості про свої колонки , крім того, я перевірив результати опитування, проведені різними органами опитування, і повідомив про висновки). Громадськість загалом перебуває в режимі очікування. Є деяке нетерплячість і хвилювання, яке врівноважується невпевненістю в цьому питанні та бажанням побачити доказ пудингу, так би мовити.

Щоб було зрозуміло, не всі за межами спільноти AI бачать це питання в таких термінах. Є відомі зовнішні активісти ШІ, які виступають на користь самокерованих автомобілів, і ті, які рішуче протистоять. Вони, як правило, дуже вокальні. У той же час більшість громадськості здається відносно спокійною і, як уже згадувалося, перебуває у вичікувальному мисленні.

Ви можете згадати деякі приклади екстремального AI-активізму, який виступав проти самокерованих автомобілів, які мали місце кілька років тому, і про які я тоді повідомляв у своїх колонках. У деяких місцевостях люди вирішили кидати каміння в автомобілі, що проїжджають повз. Вони намагалися заблокувати рух самокерованих автомобілів, ставлячи на шляху свої керовані людиною автомобілі або наближаючись до самокерованих, щоб продемонструвати небезпеку самокерованих автомобілів. Багато з цих тактик були незаконними та становили небезпеку для всіх зацікавлених осіб.

У всьому цьому поставлені великі ставки.

За оцінками, сфера автономного водіння згодом перетвориться на галузь на трильйон доларів, див. мій аналіз на посилання тут. Деякі противники штучного інтелекту наполягають на тому, що ми є свідками сили грошей, яка вирішує нашу долю. Нам слід дозволяти лише безпілотним автомобілям на основі штучного інтелекту їздити по спеціальних закритих трасах або використовувати комп’ютерне моделювання, щоб випробувати їх. Твердження полягає в тому, що ми передчасно дозволяємо неперевіреним і не готовим до прайм-тайм самокерованим автомобілям бути на наших дорогах загального користування.

Висновок

Активність AI виникає у всіх сферах AI.

Тут я підкреслив, що активізм AI лежить в основі прийняття самокерованих автомобілів і автономних транспортних засобів. В інших частинах суспільства ми маємо велику кількість активності у сфері штучного інтелекту. Існує ШІ в галузі охорони здоров’я та медицини. ШІ у фінансовій сфері. ШІ в роздрібній торгівлі та дистрибуції. ШІ поступово набуває поширення.

Деякі кажуть, що противники ШІ намагаються повернути годинник назад. Вони хочуть повернутися до часів коней і баггі. Вони луддити в сучасну епоху.

Деякі кажуть, що прихильники штучного інтелекту ведуть нас дорогою примули. Зрештою, ми збираємося побудувати Франкенштейна, який буде екзистенційною загрозою. Все людство або буде поневолено, або ми будемо знищені ШІ.

Який ви активіст AI?

Одна річ, яка здається майже безсумнівною, — це ті, хто нейтральний і не вважає себе учасником гри активізму AI, вони невблаганно будуть втягнені в гамбіт соціального AI, подобається їм це чи ні. ШІ тут і зростає. Ніхто не зможе тримати голову в піску, і всім доведеться заперечити щодо ШІ, тож питання лише в тому, на який бік чи табір ви збираєтеся приземлитися.

ШІ привертає увагу, помірно чи надзвичайно, і всі ми зацікавлені в тому, куди рухається ШІ.

Джерело: https://www.forbes.com/sites/lanceeliot/2022/06/04/ai-ethics-and-the-perplexing-societal-and-legal-role-of-ai-activism-including-in- випадок-автономних-самокерованих-автомобілів/