Етика штучного інтелекту та індукована ШІ психологічна щеплення, щоб допомогти людям з дезінформацією

Що ми будемо робити з величезним надлишком дезінформації та дезінформації?

Все помітно стає гірше і гірше з кожним днем.

Можливо, штучний інтелект (AI) може прийти нам на допомогу. Так, це вірно, можливо, ми зможемо використовувати корисні способи штучного інтелекту, щоб впоратися з нашим невпинним цунамі дезінформації та дезінформації. Можливо, нам буде доцільно спробувати це зробити. Кожен шлях потенційного вирішення здавався б гідним пошуку.

Крім того, я хотів би негайно визнати та зазначити, що ШІ, безсумнівно, збирається Також будь також частиною проблеми. Безсумнівно, люди можуть легко використовувати ШІ для створення дезінформації та дезінформації. Крім того, штучний інтелект можна підступно використовувати, щоб зробити дезінформацію та дезінформацію неймовірно достовірними та змусити людей повірити, що представлена ​​інформація є надзвичайно точною та фактичною. Виразно сумна сторона того, що AI приносить на стіл. Ми повернемося до цієї головоломки мінусів наприкінці цього обговорення.

А поки що давайте вдягнемо наші смайлики та дослідимо, як штучний інтелект корисний для того, щоб поставити на коліна дезінформацію та дезінформацію. Однією з важливих причин буде те, що все це пов’язано з життєво важливими елементами етики ШІ. Моя колонка висвітлює етику штучного інтелекту та етичний штучний інтелект постійно і широко, в тому числі посилання тут та посилання тут, просто назвемо декілька.

Розглянемо ці наріжні способи, як ШІ може бути особливо корисним союзником у війні з дезінформацією та дезінформацією:

  • Зупинка на початку: ШІ можна використовувати для виявлення та спроби вилучити дезінформацію та дезінформацію до того, як вона стане доступною
  • Фільтр перед переглядом: AI можна використовувати для фільтрації дезінформації та дезінформації, щоб вам не потрібно було турбуватися про те, що ви її побачите
  • Підготуйте себе до імунітету: ШІ можна використовувати, щоб підвищити вашу готовність і здатність протистояти дезінформації та дезінформації (дещо формально відомо як надання свого роду психологічного щеплення)
  • Інше

Перший перерахований пункт передбачає спробу зупинити дезінформацію та дезінформацію якомога раніше, до того, як вміст потрапить у світ.

Це дуже проблематичний підхід. Дехто голосно стверджує, що це може бути спроба Старшого Брата придушити свободу слова. Як далеко зможе зайти цей ШІ? Чи може це перешкоджати людям вільно висловлювати свої погляди? Це жахливо може стати слизьким шляхом ШІ, який зрештою стане найгіршим кошмаром злих результатів, які невинно почалися з найкращих намірів.

Я впевнений, що ви зрозуміли.

Другий пункт є трохи поміркованішим і передбачає, що ми могли б використовувати ШІ для фільтрації вмісту.

Можливо, у вас є бот-фільтр AI, який скануватиме всі ваші вхідні канали даних із різних новин та інших джерел. Штучний інтелект створено для виявлення будь-якої дезінформації чи дезінформації, яка відповідає вашим особистим критеріям. Таким чином, у такому сценарії це не ситуація цензури Великого Брата. Ви керуєте ШІ та тим, як він фільтрує вашу справжню папку «Вхідні» з інформацією від вашого імені.

Звучить досить добре.

Однак є деякі заслуги на увагу.

Наприклад, ми вже дуже поляризовані у своїх поглядах, і таке використання ШІ може зробити цю поляризацію глибшою та темнішою. Уявіть собі, що з цим зручним штучним інтелектом, який працює безперервно 24×7, вам ніколи не знадобиться бачити жодної інформації, яку ви класифікували як потенційно дезінформацію та дезінформацію. Тепер ваша поляризована перспектива майже гарантовано залишиться незмінною. Цілий день і щоразу, коли ви прагнете поглянути на інформацію, яка чекає на вашу увагу, вона завжди повністю попередньо відібрана, і немає жодного шансу поглянути на так звану дезінформацію та дезінформацію.

Я кажу, що дезінформація і дезінформація можуть бути так званий тому що існує величезна кількість суперечок щодо того, що насправді є дезінформацією та дезінформацією. Деякі експерти наполягають на тому, що є абсолютна основа для встановлення того, що є дезінформацією, а що є дезінформацією. Є правильне і неправильне. Все можна підрахувати, не помиляючись, що щось є або дезінформацією, або дезінформацією.

Не всі бачать речі настільки однозначними.

Взаємовиключний дихотомічний контраст «включати або виключати» вважається оманливим. Дезінформація однієї особи не може вважатися дезінформацією для іншої особи. Так само і про дезінформацію. Твердження полягає в тому, що дезінформація та дезінформація мають різний характер і масштаби. Спробувати остаточно класифікувати всю інформацію в одну чи іншу купу набагато важче, ніж це припускає помах рукою.

Суть полягає в тому, що другий пункт про використання ШІ як механізму фільтрації має свої компроміси. Немає сумнівів, що штучний інтелект буде використовуватися для цього все частіше. У той же час ми повинні пам’ятати про виклики, які такий ШІ збирається висунути на перший план. Штучний інтелект як фільтр для дезінформації та дезінформації – це не якась срібна куля чи слем-данк.

Це підводить нас до третього моменту, а саме можливості використання штучного інтелекту, щоб допомогти людям краще справлятися з дезінформацією та дезінформацією.

Я сумніваюся, що ви, ймовірно, багато чули про цей третій шлях використання штучного інтелекту в цьому контексті. Воно тільки починає з'являтися. Зараз ви перебуваєте на передньому краї чогось, що, ймовірно, буде розвиватися та поступово використовуватися. Будь ласка, майте на увазі, що в міру того, як ця популярність зростає, суперечки щодо того, чи є цей підхід відповідним, також стануть дуже помітними.

Частина проблеми полягає в тому, що ШІ певною мірою використовується для того, що дехто назвав би принизливо граючи в розумові ігри з людьми.

Це здається зловісним.

Це також приводить нас до сфери етики ШІ.

Усе це також пов’язано з тверезими занепокоєннями щодо сучасного штучного інтелекту, особливо щодо використання машинного та глибокого навчання як форми технології та того, як вони використовуються. Розумієте, існують способи використання ML/DL, які, як правило, передбачають антропоморфізацію штучного інтелекту широкою громадськістю, вірячи або вирішуючи припускати, що ML/DL є або розумним ШІ, або близьким до (це не так). Крім того, ML/DL може містити аспекти зіставлення обчислювальних шаблонів, які є небажаними, відверто неприйнятними чи незаконними з точки зору етики чи права.

Було б корисно спочатку пояснити, що я маю на увазі, коли згадую про ШІ в цілому, а також надати короткий огляд машинного та глибокого навчання. Існує велика плутанина щодо того, що означає штучний інтелект. Я також хотів би познайомити вас із принципами етики штучного інтелекту, які будуть особливо невід’ємною частиною решти цього дискурсу.

Встановлення запису про ШІ

Давайте переконаємося, що ми знаходимося на одній сторінці щодо природи сучасного ШІ.

Сьогодні немає жодного штучного інтелекту, який був би розумним.

У нас цього немає.

Ми не знаємо, чи стане можливим розумний ШІ. Ніхто не може точно передбачити, чи ми досягнемо інтелектуального ШІ, а також те, чи розумний ШІ якимось дивовижним чином спонтанно виникне у формі обчислювальної когнітивної наднової (зазвичай її називають Сингулярністю, див. моє висвітлення на посилання тут).

Зрозумійте, що сьогоднішній штучний інтелект не здатний «мислити» так само, як людське. Коли ви взаємодієте з Alexa або Siri, здатність до розмови може здатися схожою на людську здатність, але насправді вона пов’язана з обчисленням і не має людського пізнання. Остання ера штучного інтелекту широко використовує машинне навчання та глибоке навчання, які використовують обчислювальну відповідність шаблонів. Це призвело до появи систем штучного інтелекту, які виглядають як людські схильності. Тим часом, сьогодні немає жодного штучного інтелекту, який мав би хоч якось здоровий глузд, а також жодного когнітивного дива міцного людського мислення.

Частково проблема полягає в нашій тенденції до антропоморфізації комп’ютерів і особливо ШІ. Коли здається, що комп’ютерна система чи штучний інтелект діють так, як ми асоціюємо з людською поведінкою, виникає майже непереборне бажання приписати цій системі людські якості. Це звичайна психічна пастка, яка може вхопити навіть найнепримиреннішого скептика щодо шансів досягти розуму.

Певною мірою саме тому етика ШІ та етичний ШІ є такою важливою темою.

Правила етики ШІ змушують нас залишатися пильними. Технологи штучного інтелекту іноді можуть бути стурбовані технологіями, особливо оптимізацією високих технологій. Вони не обов’язково враховують більші суспільні наслідки. Наявність мислення щодо етики штучного інтелекту, яке є невід’ємною частиною розробки та впровадження штучного інтелекту, є життєво важливим для створення відповідного штучного інтелекту, включаючи оцінку того, як етика штучного інтелекту приймається компаніями.

Окрім застосування принципів етики штучного інтелекту в цілому, виникає відповідне питання про те, чи повинні ми мати закони, які регулюватимуть різні види використання ШІ. На федеральному, штатному та місцевому рівнях приймаються нові закони, які стосуються діапазону та характеру розробки ШІ. Зусилля щодо розробки та прийняття таких законів є поступовими. Етика штучного інтелекту служить принаймні тимчасовим засобом і майже напевно певною мірою буде безпосередньо включена в ці нові закони.

Майте на увазі, що деякі категорично стверджують, що нам не потрібні нові закони, які стосуються ШІ, і що наших існуючих законів достатньо. Вони попереджають, що якщо ми все-таки запровадимо деякі з цих законів щодо штучного інтелекту, ми вб’ємо золотого гусака, пригнічуючи досягнення ШІ, які пропонують величезні переваги для суспільства. Дивіться, наприклад, моє висвітлення на посилання тут.

У попередніх колонках я розповідав про різні національні та міжнародні спроби розробити та прийняти закони, що регулюють ШІ, див. посилання тут, наприклад. Я також розглянув різні принципи та настанови етики штучного інтелекту, які визначили та прийняли різні країни, включаючи, наприклад, зусилля Організації Об’єднаних Націй, такі як набір етики штучного інтелекту ЮНЕСКО, який прийняли майже 200 країн, див. посилання тут.

Ось корисний ключовий список етичних критеріїв або характеристик систем штучного інтелекту, які я раніше детально досліджував:

  • прозорість
  • Справедливість і справедливість
  • Незлочинність
  • Відповідальність
  • Конфіденційність
  • Вигода
  • Свобода і автономія
  • Довіряйте
  • Sustainability
  • Гідність
  • Солідарність

Ці принципи етики штучного інтелекту повинні щиро використовуватися розробниками штучного інтелекту, а також тими, хто керує розробкою штучного інтелекту, і навіть тими, хто в кінцевому підсумку розміщує та підтримує системи штучного інтелекту. Усі зацікавлені сторони протягом усього життєвого циклу розробки та використання штучного інтелекту враховуються в межах дотримання встановлених норм етичного штучного інтелекту. Це важливий момент, оскільки звичайне припущення полягає в тому, що «лише кодери» або ті, хто програмує ШІ, підлягають дотриманню понять етики ШІ. Як наголошувалося вище, для розробки та впровадження штучного інтелекту потрібне село, і для цього все село має знати та дотримуватися правил етики штучного інтелекту.

Давайте будемо приземлені та зосередимося на сучасному обчислювальному нерозумному ШІ.

ML/DL є формою узгодження обчислювальних шаблонів. Звичайний підхід полягає в тому, що ви збираєте дані про завдання прийняття рішення. Ви подаєте дані в моделі комп’ютерів ML/DL. Ці моделі прагнуть знайти математичні закономірності. Після виявлення таких закономірностей, якщо вони знайдені, система ШІ використовуватиме ці шаблони під час зустрічі з новими даними. Після представлення нових даних шаблони, засновані на «старих» або історичних даних, застосовуються для прийняття поточного рішення.

Я думаю, ви можете здогадатися, куди це веде. Якщо люди, які приймали рішення за зразком, включали упередження, ймовірно, дані відображають це тонким, але значущим чином. Машинне навчання або глибоке навчання обчислювальний шаблон зіставлення буде просто намагатися математично імітувати дані відповідно. Немає жодної видимості здорового глузду чи інших розумних аспектів моделювання, створеного AI, як такого.

Крім того, розробники ШІ також можуть не усвідомлювати, що відбувається. Таємна математика в ML/DL може ускладнити виявлення прихованих упереджень. Ви по праву сподіваєтесь і очікуєте, що розробники AI перевірять потенційно приховані упередження, хоча це складніше, ніж може здатися. Існує велика ймовірність того, що навіть при відносно обширному тестуванні в моделях зіставлення шаблонів ML/DL все ще будуть упередження.

Ви могли б трохи використати відоме чи сумнозвісне прислів’я «сміття в сміття – виходить». Справа в тому, що це більше схоже на упередження, які підступно вливаються, коли упередження занурюються в ШІ. Алгоритм прийняття рішень (ADM) ШІ аксіоматично стає обтяженим несправедливістю.

Не добре.

Я вважаю, що зараз підготував основу для достатнього обговорення ролі ШІ як засобу швидкого психологічного щеплення, пов’язаного з боротьбою з дезінформацією та дезінформацією.

Потрапляючи в уми людей

Почнемо з основ або основ, що лежать в основі дезінформації та дезінформації.

Як правило, дезінформація стосується неправдивої або оманливої ​​інформації.

Дезінформація приблизно така ж, хоча й містить додатковий елемент намір. Зазвичай ми тлумачимо інформацію як дезінформацію, коли це інформація призначених дезінформувати.

Я міг би сказати вам, що зараз 10 годин ночі, що, скажімо, невірно, оскільки насправді час опівночі. Якби я сказав вам 10:10 як передчуття, а не намагався ввести в оману, ми зазвичай казали б, що я вас дезінформував. Я передав дезінформацію. Можливо, я був ледачий, а можливо, я справді вірив, що зараз 10 годин. З іншого боку, якби я згадав 10:XNUMX, тому що навмисно хотів ввести вас в оману, щоб ви подумали, що зараз XNUMX:XNUMX, і що я знав, що зараз опівніч, це можна було б назвати формою дезінформації .

Одним із важливих аспектів інформації в цілому є те, що зазвичай ми можемо поширювати інформацію, і тому інформація може стати певною мірою широко поширеною. Інформація дійсно може текти, як вода, у широкому сенсі.

Кажу вам, зараз 10 годин ночі. Тепер у вас є ця конкретна інформація. Ви можете кричати вголос групі людей, які знаходяться поруч, що зараз 10 годин ночі. Тепер вони також мають ту саму інформацію. Можливо, деякі з цих людей беруться до своїх мобільних телефонів і дзвонять іншим людям, щоб сказати їм, що зараз 10:XNUMX. Загалом, інформацію можна поширювати або ділитися, іноді це робиться дуже швидко, тоді як в інших випадках це робиться повільно.

У певному сенсі можна стверджувати, що інформація може стати вірусною.

Існує придумане слово або термінологія, які ви, можливо, не бачили або не використовували, які допомагають описати цей феномен поширення інформації, це слово індемічний. Це слово є сумішшю інформації та епідемії. Загалом, інфодемія пов’язана з обставинами, пов’язаними з поширенням дезінформації чи дезінформації. Ідея полягає в тому, що неправдива або оманлива інформація може небажано стати вірусною, подібно до небажаного поширення хвороби або хвороб.

У прикладі про 10 годину ночі цей удаваний факт був частиною інформації, яка була поширена групі людей поблизу. Вони, у свою чергу, поширюють цей факт іншим. Якщо 10:XNUMX була фальшивкою, тоді цей конкретний випадок дезінформації чи дезінформації було поширено на багатьох інших. Вони могли не знати, що інформація була дезінформацією або, можливо, дезінформацією.

Я вірю, що всі ці визначення та основи здаються розумними, і ви наразі їх розумієте.

Чудово, продовжимо.

Я дещо таємно ввів вас у те, що викликало велике захоплення, а також тривогу. Суть полягає в тому, що, мабуть, існують досить обґрунтовані паралелі між тим, що хвороби викликають віруси, і тим, що робить вірусно дезінформація чи дезінформація.

Не всі погоджуються з цими паралелями. Тим не менш, вони інтригуючі і заслуговують на увагу.

Дозвольте розповісти детальніше.

Розумієте, ми можемо спробувати використати зручну аналогію, посилаючись на хвороби, що передаються людиною, і хвороби, які поширюються, роблячи це для порівняння подібної можливості з поширенням дезінформації та дезінформації. Щоб спробувати зупинити поширення хвороб, ми можемо прагнути раннього виявлення та стримування нових хворобливих джерел потенційного поширення хвороби. Іншим підходом до боротьби з хворобою, що поширюється, є захист від її зараження шляхом обережного використання маски або захисного спорядження. Третій підхід може складатися з вакцинації, щоб спробувати створити свій імунітет, пов’язаний із захворюванням.

Тепер ми пройшли повне коло, оскільки ті самі підходи до боротьби з хворобами можна прямо порівняти з боротьбою з дезінформацією та дезінформацією. Раніше я згадував, що вживаються подібні зусилля щодо використання штучного інтелекту з метою боротьби з дезінформацією та дезінформацією, зокрема (як згадувалося раніше):

  • Зупинка на початку: ШІ можна використовувати для виявлення та спроби вилучити дезінформацію та дезінформацію до того, як вона стане доступною
  • Фільтр перед переглядом: AI можна використовувати для фільтрації дезінформації та дезінформації, щоб вам не потрібно було турбуватися про те, що ви її побачите
  • Підготуйте себе до імунітету: ШІ можна використовувати, щоб підвищити вашу готовність і здатність протистояти дезінформації та дезінформації (дещо формально відомо як надання свого роду психологічного щеплення)
  • Інше

Третій аспект представлятиме тут найбільший інтерес.

Ось така угода.

Ми знаємо, що хвороби зазвичай вражають людського тіла. За допомогою аналогії з тим, як виникають дезінформація та дезінформація, ми можемо припустити, що негідна інформація б’є по людський розум. Так, імовірно, ви можете зіткнутися з дезінформацією або дезінформацією, яка проникає у ваш розум. Дезінформація або дезінформація потенційно псує або отруює ваш спосіб мислення.

Організм людини можна вакцинувати, щоб спробувати підготуватися до контакту з хворобами. Виникає велике питання про те, чи можемо ми зробити те саме для людського розуму. Чи можна спробувати прищепити розум, щоб, коли дезінформація або дезінформація приходить вам на думку, ви були готові до цього і отримали відповідне щеплення?

Галузь дослідження, відома як психологічне щеплення стверджує, що розум дійсно може бути щеплений у сенсі готовності працювати з дезінформацією чи дезінформацією.

Розглянемо цей опис у недавньому дослідженні щодо психологічного щеплення та того, що іноді позначається як виконання попереднього спалювання:

  • «Спростувати дезінформацію також проблематично, оскільки виправлення дезінформації не завжди повністю зводить нанівець її наслідки, явище, відоме як ефект постійного впливу. Відповідно, на відміну від розвінчання, попереднє розвінчання набуло популярності як засіб завчасного формування стійкості проти очікуваного впливу дезінформації. Цей підхід зазвичай ґрунтується на теорії щеплення. Теорія щеплення дотримується аналогії з медичною імунізацією та стверджує, що можна створити психологічний опір небажаним спробам переконання, подібно до того, як медичні щеплення формують фізіологічну стійкість проти патогенів» (Наука розвивається, 24 серпня 2022 р., «Психологічна щеплення покращує стійкість проти дезінформації в соціальних мережах» (співавтори Джон Розенбік, Сандер ван дер Лінден, Бет Голдберг, Стів Ратьє та Стефан Левандовскі).

Повертаючись до мого прикладу про 10 годину ночі, припустімо, що я раніше казав вам, що іноді заявлений час не є фактичним. Відтепер у вас є форма щеплення, щоб бути обережними щодо заявленого часу. Це щеплення підготувало вас до зіткнення зі стверджуваними часами, які є дезінформацією або дезінформацією.

Якби я попередив вас кілька років тому про те, що заявлений час не є справжнім часом, є шанс, що ви могли б не згадати про це давнє попередження. Таким чином, попереднє щеплення (скажімо так) вичерпалося. Моє щеплення для вас, можливо, потрібно буде посилити.

Існує також ймовірність того, що щеплення не було достатньо конкретним, щоб ви могли використовувати його, коли це необхідно. Якби я кілька років тому попередив вас про заявлений час порівняно з фактичним часом, це могло б бути надто широким. Щеплення може не спрацювати в конкретному випадку, коли вам повідомлять про 10 годину. У цьому сенсі, можливо, мій щеплення мав полягати в тому, що ви повинні бути обережними, коли використовується заявлений час 10:XNUMX. Звичайно, щеплення у випадку захворювань дещо однакові, інколи вони дуже специфічні для відомих захворювань, а в інших випадках мають широкий спектр.

Часто цитоване дослідження, проведене в 1961 році Вільямом Макгуайром з Колумбійського університету щодо психологічного щеплення, зараз вважається класичним у цій галузі досліджень. Вам можуть бути цікаві такі ключові моменти, які він зробив у той час:

  • «Така генералізована імунізація може відбуватися за будь-яким із двох механізмів. Попереднє викриття може приголомшити людину до усвідомлення того, що «трюїзми», які вона завжди приймала, справді є вразливими, таким чином спонукаючи її виробити захист своїх переконань, у результаті чого вона стає більш стійкою до сильних контраргументів, коли вони надходять. З іншого боку, спростування, які використовуються під час попереднього викриття, можуть зробити всі наступні контраргументи проти віри менш вражаючими» (William McGuire, «Resistance to Persuasion Confered By Active And Passive Prior Refutation of the Same And Alternative Counterarguments», Journal of Abnormal and Соціальна психологія, 1961).

Чи вважаєте ви цю аналогію з щепленнями та імунізацією корисним і вдалим порівнянням зі сферою дезінформації та дезінформації?

Хтось робить, хтось ні.

Для цілей цього обговорення, будь ласка, визнайте, що передумова є розумною та влучною.

Як нам спробувати прищепити чи імунізувати розум людей?

Ми могли б змусити людей читати книги, які могли б просвітити їх розум. Ми можемо розповісти їм про це або попросити їх переглянути відео чи послухати аудіокасети. тощо

І ми могли б використовувати ШІ, щоб зробити те саме.

Система штучного інтелекту може бути розроблена, щоб стати вашим щепленням. Щоразу, коли ви починаєте виходити в Інтернет, наприклад переглядати Інтернет, програма на основі ШІ може підготувати вас до вашої онлайн-мандрівки. Штучний інтелект може дати вам крихітну кількість дезінформації, позначеної як така, дозволяючи вам усвідомити, що ви побачите щось навмисно неправдиве.

Піддавшись цій дезінформації, що підживлюється штучним інтелектом, ваш розум тепер готовий справлятися з дезінформацією або дезінформацією, з якою ви можете зіткнутися в дикій природі в Інтернеті. Ваш розум був готовий. Вуаля, ви бачите блог в Інтернеті, який пропонує стверджувати факт, що інопланетні істоти з Марса вже тут, на землі та ховаються на видноті, але ця удавана дезінформація чи дезінформація легко відкидається вашим розумом через попереднє щеплення (ну, знову ж таки, можливо, це правда, і вони справді тут!).

У будь-якому випадку, я сподіваюся, що ви зараз можете зрозуміти, як штучний інтелект може допомогти прищепити або імунізувати людей щодо дезінформації або дезінформації.

Розробляються різні додатки штучного інтелекту, які виконуватимуть роль дезінформації або щеплення дезінформації. ШІ може прагнути забезпечити щеплення, яке є широким і забезпечує загальну подобу імунізації. ШІ можна також розробити для більш конкретних форм щеплення. Крім того, ШІ може працювати на персоналізованій основі, налаштованій на ваші конкретні потреби чи інтереси. Прогресивний штучний інтелект у цьому просторі також намагатиметься визначити ваш рівень толерантності, швидкість розумового поглинання, здатність до утримання та інші фактори під час створення та представлення, так би мовити, так званих знімків імунізації.

Здається досить зручним.

ШІ як гравець у небезпечні розумові ігри

ШІ, використаний таким чином, на перший погляд здасться досить зручним (привіт, я згадав про це лише секунду тому).

Існує безліч потенційних недоліків і проблем, які викликають занепокоєння і, можливо, лякають.

У своїх колонках я часто обговорюю можливості ШІ подвійного призначення, див посилання тут. ШІ може зробити важливий внесок у розвиток людства. На жаль, штучний інтелект також обтяжений безліччю небезпек і прикрих пасток.

Що стосується ШІ як ініціатора, давайте розглянемо ці демонстративні питання, пов’язані з етикою ШІ:

  • Побічні реакції з боку людини
  • Відсутність реакції людини
  • ШІ неправильне націлювання
  • Недостатнє націлювання AI
  • Кіберзлом ШІ
  • Інше

Ми коротко дослідимо ці проблеми.

Побічні реакції людини

Припустімо, що людина, яка отримує таке щеплення на основі ШІ, має побічну реакцію або викликає побічний ефект.

Людина може неправильно витлумачити імунізацію та раптово стати несприйнятливою до будь-якої інформації, яку вона отримує. Вони блокують всю інформацію. Штучний інтелект якимось чином змусив їх викинути дитину разом із водою для ванни (стара приказка, можливо, варто відмовитися). Замість того, щоб просто намагатися впоратися з дезінформацією та дезінформацією, людина відреагувала, вирішивши, що вся інформація завжди неправдива.

Я не думаю, що ми хочемо, щоб люди так перестаралися.

Існує безліч побічних реакцій, які може викликати ШІ. Частково це пов’язано з тим, як штучний інтелект намагався зробити щеплення, але також ми повинні покласти частину проблеми на ноги людини, яка отримала щеплення. Вони могли відреагувати дико або химерно на те, що інші, які отримали таке щеплення ШІ, цього не зробили.

Знову ж таки, ви можете порівняти це з аналогією з щепленнями від хвороб.

Коротше кажучи, важливо, щоб такі зусилля штучного інтелекту застосовувалися відповідальними способами, спрямованими на мінімізацію негативних наслідків. Також має бути додатковий аспект ШІ, щоб спробувати встановити, чи сталася побічна реакція. Якщо є виявлена ​​побічна реакція, слід розробити штучний інтелект, щоб спробувати допомогти людині в її несприятливій реакції та прагнути подолати або полегшити реакцію.

Реакції людей, які не реагують

Інша можливість полягає в тому, що щеплення штучним інтелектом не впливає на людину, яка отримує вакцину.

Людина отримує щеплення на основі ШІ, пов’язане з дезінформацією або дезінформацією. У той час як більшість людей «захворюють» і роблять щеплення, обов’язково знайдуться люди, які взагалі не реагуватимуть. Вони нічого не дізнаються з щеплення. Вони не реагують на спробу штучного інтелекту імунізувати їх проти всіх або певних типів дезінформації чи дезінформації.

Знову ж таки, це можна порівняти з щепленнями від хвороб.

Слід розробити ШІ, щоб боротися з такою обставиною.

Помилка AI

Уявіть, що штучний інтелект сподівається імунізувати людей щодо певної теми, яку ми назвемо темою X, але виявляється, що натомість охоплюється тема Y. ШІ неправильно націлюється.

Це двояка проблема. По-перше, тема X не розглядалася як передбачувана і очікувана мета інокулятора ШІ. По-друге, тема Y охоплена, але ми, можливо, не хотіли, щоб люди отримували щеплення від цієї теми.

На жаль.

Питань багато. Чи можна було запобігти цьому? Якщо це станеться, чи можемо ми скасувати тему імунізації Y? Чи можемо ми спробувати охопити тему X щеплення, чи людина буде менш сприйнятливою або не сприйнятливою через неправильне націлювання штучним інтелектом спочатку?

Виникає багато проблемних питань.

Недостатнє націлювання AI

ШІ робить щеплення на тему Z. Люди, які отримують щеплення, здається, мають мінімальну або майже незначну реакцію. Щеплення було недостатнім, щоб прижитися.

У вас може виникнути спокуса швидко заявити, що це легко вирішити. Вам залишиться лише повторити щеплення. Можливо так, можливо ні.

Щеплення штучного інтелекту може мати настільки обмежену цінність, що незалежно від того, якщо у вас є люди, які випробували це сто разів, результат все одно буде маргінальним результатом. Можливо, вам знадобиться посилити щеплення, а не просто повторювати його.

Тим часом уявіть, що робиться спроба підвищити щеплення за допомогою ШІ, але це зашкалює. Посилена версія викликає гіперреакцію. Ой, ми прийшли від поганого до гіршого.

Кіберзлом ШІ

Уявіть собі, що штучний інтелект широко використовується, щоб допомогти людям отримати щеплення від дезінформації та дезінформації.

Загальна довіра захоплює людей. Вони знають і очікують, що штучний інтелект збирається представити їм фрагменти, які відкриють їм очі на те, що відомо як дезінформація та дезінформація.

Здається, все добре і добре.

Зловмисник якимось чином може здійснити кіберзлом ШІ. Вони потай нав’язують ШІ якусь бажану дезінформацію, яку хочуть, щоб люди вважали не дезінформацією. ШІ влаштований так, щоб фактична дезінформація виглядала правдивою. Крім того, правдива інформація виглядає як дезінформація.

Люди повністю снукеровані. ШІ дезінформує їх. Крім того, через те, що вони стали залежними від штучного інтелекту, і через віру в те, що штучний інтелект робить правильні речі, вони потрапляють на гачок, шнур і грузило для цього зламаного ШІ. Без вагань.

Враховуючи те, наскільки легко дезінформація може поширюватися далі, зловмисник може насолоджуватися тим, що існування такого типу штучного інтелекту є для них найпростішим і найшвидшим способом розповсюдити свою підступну брехню по всьому світу. За іронією долі, звичайно, використавши інокулятор штучного інтелекту для фактичного поширення хвороби.

Висновок

Чи повинен ШІ грати з нами в розумові ігри?

Чи може ШІ для дезінформації та щеплення дезінформації бути загрозливим троянським конем?

Ви можете навести серйозні аргументи, щоб хвилюватися про такий кошмар.

Інші висміюють таку можливість. Люди достатньо розумні, щоб знати, коли ШІ намагається їх обдурити. Люди не попадуться на такий дриблінг. Тільки ідіоти введуть себе в оману таким ШІ. Це звичайні репліки та контраргументи.

Не бажаючи виглядати просто захопленим людьми та людською природою, я б лише припустив, що є достатньо ознак того, що люди можуть потрапити на ШІ, який вводить їх в оману.

Існує ще більша проблема, яка, можливо, нависає над усім цим.

Хто створює ШІ і як ШІ алгоритмічно вирішує, що вважати дезінформацією та дезінформацією?

Сьогодні у світі загалом точиться ціла перестрілка щодо того, що таке конкретно дезінформація та дезінформація. Дехто стверджує, що факти є фактами, тому ніколи не може бути плутанини щодо того, що таке належна інформація, а що неправдива інформація. Хоча іноді диявол криється в деталях, це напевно.

Наразі останнє зауваження. Відомий вислів Авраама Лінкольна: «Ви можете обдурити всіх людей деякий час і деяких людей постійно, але ви не можете обдурити всіх людей постійно».

Чи буде штучний інтелект, який використовується для сприяння щепленню людства від дезінформації та дезінформації, життєво важливим інструментом для забезпечення того, щоб не всіх людей можна було постійно обманювати? Або це може бути використано, щоб обдурити більше людей більшу частину часу?

Час покаже.

І це точно не дезінформація чи дезінформація.

Джерело: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/