Етика штучного інтелекту та законодавство щодо штучного інтелекту, які зважують ключові шляхи реалізації цього нещодавно опублікованого Білля про права на штучний інтелект, включаючи та дивовижне використання прямого використання штучного інтелекту

Безсумнівно, нам потрібні креслення в нашому повсякденному житті.

Якщо ви збираєтеся побудувати будинок вашої давно задуманої мрії, було б розумно спочатку скласти придатний для використання проект.

План демонструє відчутний і задокументований спосіб будь-яку далекоглядну перспективу, яка може бути замкнена у вашій голові. Ті, кого збираються покликати побудувати вашу заповітну садибу, зможуть звернутися до креслення та визначити деталі того, як виконати роботу. Креслення зручні. Відсутність плану неминуче буде проблематичною для вирішення будь-якої складної роботи чи проекту.

Давайте перенесемо цю дещо сентиментальну, але щиру данину кресленням у сферу штучного інтелекту (ШІ).

Ті з вас, хто серйозно захоплюється штучним інтелектом, можуть смутно усвідомлювати, що важлива політико-орієнтована план був нещодавно випущений у США, який явно стосується майбутнього ШІ. Неофіційно відомий як Білль про права AI, офіційна назва проголошеної білої книги – «Проект Білля про права на штучний інтелект: як зробити так, щоб автоматизовані системи працювали на користь американського народу», і вона доступна в Інтернеті.

Документ є результатом річних зусиль і ретельного вивчення Управління науково-технічної політики (OSTP). OSTP є федеральним органом, який був створений у середині 1970-х років і служить для консультування американського президента та виконавчого офісу США з різних технологічних, наукових та інженерних аспектів національного значення. У цьому сенсі ви можете сказати, що цей Білль про права на штучний інтелект є документом, схваленим і схваленим існуючим Білим домом США.

У Біллі про права AI зображено права людини що людство повинно мати з огляду на появу штучного інтелекту в нашому повсякденному житті. Я наголошую на цьому важливому моменті, тому що деякі люди спочатку були здивовані тим, що, можливо, це було якесь підтвердження прав юридичної особи штучного інтелекту та що це був перелік прав розумного ШІ та гуманоїдних роботів. Ні, ми ще не там. Як ви незабаром побачите, ми не наблизилися до розумного ШІ, незважаючи на заголовки банерів, які, здається, говорять нам про інше.

Гаразд, тож чи потрібен нам план, який би прописував права людини в епоху ШІ?

Так, безсумнівно.

Вам мало б бути замкненим у печері та відсутності доступу до Інтернету, щоб не знати, що штучний інтелект уже все більше посягає на наші права. Нещодавня ера штучного інтелекту спочатку розглядалася як така ШІ для добра, що означає, що ми можемо використовувати ШІ для покращення людства. На п'ятах ШІ для добра прийшло усвідомлення, що ми також занурені в ШІ для поганого. Це стосується штучного інтелекту, створеного або зміненого самостійно таким чином, щоб бути дискримінаційним, і робить обчислювальний вибір із зайвими упередженнями. Іноді штучний інтелект побудований таким чином, а в інших випадках він повертає на цю непривабливу територію.

Для мого постійного та широкого висвітлення та аналізу законодавства щодо штучного інтелекту, етики штучного інтелекту та інших ключових технологічних і суспільних тенденцій див. посилання тут та посилання тут, просто назвемо декілька.

Розпакування Білля про права AI

Раніше я обговорював Білль про права на штучний інтелект і зроблю короткий підсумок тут.

Крім того, якщо ви хочете знати мої детальні переваги та недоліки нещодавно опублікованого Білля про права на штучний інтелект, я детально описав свій аналіз у дописі на АдвокатСм. посилання тут, Адвокат – це відомий онлайн-сайт із юридичними новинами та коментарями, широко відомий як відзначений нагородами юридичний інформаційний сервіс, який підтримує глобальна команда студентів-репортерів, редакторів, коментаторів, кореспондентів і розробників контенту, і має штаб-квартиру в Школі Піттсбурзького університету Закон у Піттсбурзі, де воно почалося понад 25 років тому. Вітаємо видатну та працьовиту команду в Адвокат.

У Біллі про права штучного інтелекту є п’ять ключових категорій:

  • Безпечні та ефективні системи
  • Алгоритмічний захист від дискримінації
  • Конфіденційність даних
  • Повідомлення та пояснення
  • Людські альтернативи, розгляд і резервний варіант

Зауважте, що я не пронумерував їх від одного до п’яти, оскільки це могло означати, що вони знаходяться в певній послідовності або що одне з прав є важливішим за інше. Будемо вважати, що кожен з них має свої переваги. Усі вони в певному сенсі однаково достойні.

Як короткий опис того, з чого складається кожен, ось уривок з офіційного білого документа:

  • Безпечні та ефективні системи: «Ви повинні бути захищені від небезпечних або неефективних систем. Автоматизовані системи слід розробляти за допомогою консультацій із різними спільнотами, зацікавленими сторонами та експертами в галузі, щоб визначити проблеми, ризики та потенційний вплив системи».
  • Алгоритмічний захист від дискримінації: «Ви не повинні стикатися з дискримінацією через алгоритми, а системи повинні використовуватися та проектуватися справедливо. Алгоритмічна дискримінація виникає, коли автоматизовані системи сприяють невиправданому різному поводженню або негативному впливу на людей на основі їх раси, кольору шкіри, етнічної приналежності, статі (включаючи вагітність, пологи та пов’язані захворювання, гендерну ідентичність, інтерсексуальний статус і сексуальну орієнтацію), релігії, віку , національне походження, інвалідність, статус ветерана, генетична інформація чи будь-яка інша класифікація, що захищається законом».
  • Конфіденційність даних: «Ви повинні бути захищені від зловживання даними за допомогою вбудованих засобів захисту, і ви повинні контролювати, як використовуються дані про вас. Ви повинні бути захищені від порушень конфіденційності за допомогою вибору дизайну, який гарантує, що такі засоби захисту включено за замовчуванням, включаючи забезпечення відповідності збору даних розумним очікуванням і збирання лише даних, суворо необхідних для конкретного контексту».
  • Примітка та пояснення: «Ви повинні знати, що використовується автоматизована система, і розуміти, як і чому вона сприяє досягненню результатів, які впливають на вас. Проектувальники, розробники та розробники автоматизованих систем повинні надати загальнодоступну документацію простою мовою, включаючи чіткі описи загального функціонування системи та роль, яку відіграє автоматизація, повідомлення про те, що такі системи використовуються, особу чи організацію, відповідальну за систему, та пояснення щодо чіткі, своєчасні та доступні результати».
  • Людські альтернативи, уважність і відмова: «Ви повинні мати можливість відмовитися, якщо це доречно, і мати доступ до людини, яка може швидко розглянути та виправити проблеми, з якими ви стикаєтеся. Ви повинні мати можливість відмовитися від автоматизованих систем на користь людської альтернативи, де це доречно».

Загалом, це аспекти прав людини, які досить довго обговорювалися в контексті Етики штучного інтелекту та Закону про штучний інтелект, див. моє висвітлення, наприклад на посилання тут. Біла книга, здається, не магічним чином витягує кролика з капелюха щодо якогось нещодавно відкритого чи розкопаного права, яке досі не було з’ясовано в контексті епохи ШІ.

Нічого страшного.

Ви можете стверджувати, що компіляція їх в одну акуратно упаковану та формалізовану колекцію надає життєво важливу послугу. Плюс, будучи помазаним як визнаний Білль про права AI, це ще більше ставить усю справу відкрито та вміло в свідомість громадської сфери. Він об’єднує існуючу безліч розрізнених дискусій в окремий набір, який тепер можна оголосити та передати всім зацікавленим сторонам.

Дозвольте мені запропонувати цей список позитивних реакцій на оголошений Білль про права на штучний інтелект:

  • Надає важливу компіляцію принципів Keystone
  • Служить планом або основою для розвитку
  • Діє як вокалізований заклик до дії
  • Викликає інтерес і демонструє, що це серйозні міркування
  • Об’єднує безліч різнорідних дискусій
  • Розпалює та сприяє зусиллям із впровадження етичного ШІ
  • Безсумнівно, сприятиме встановленню законів ШІ
  • Інше

Нам також потрібно враховувати несприятливі реакції, беручи до уваги, що ще багато роботи потрібно зробити, і що це лише початок тривалого шляху на важкому шляху управління ШІ.

Таким чином, дещо різка або, скажімо так, конструктивна критика Білля про права ШІ включає:

  • Не має юридичної сили та абсолютно необов’язковий
  • Лише консультативний і не вважається державною політикою
  • Менш повний у порівнянні з іншими опублікованими роботами
  • Переважно складається з широких концепцій і не має деталей реалізації
  • Буде складно перетворити їх на реальні практичні закони
  • Начебто мовчання щодо загрозливої ​​проблеми можливої ​​заборони ШІ в деяких контекстах
  • Незначно визнає переваги використання добре розробленого ШІ
  • Інше

Мабуть, найвідоміший різкий коментар зосереджувався на тому факті, що цей Білль про права на ШІ не має законної сили, а тому не витримує жодної критики, коли справа доходить до встановлення чітких воріт. Деякі кажуть, що хоча білий папір є корисним і надихаючим, у ньому явно бракує зубів. Вони сумніваються, що може вийти з уявного набору чудових правил із порожнистими зубами.

За мить я звернуся до цих уїдливих зауважень.

Між тим, білий документ рясно вказує на обмеження того, що передбачає цей Білль про права на ШІ:

  • «План Білля про права на штучний інтелект не є обов’язковим і не є політикою уряду США. Він не замінює, не змінює та не спрямовує тлумачення будь-якого існуючого закону, положення, політики чи міжнародного документа. Він не є обов’язковим керівництвом для громадськості чи федеральних установ і тому не вимагає дотримання принципів, описаних тут. Це також не є визначальним для того, якою буде позиція уряду США на будь-яких міжнародних переговорах. Прийняття цих принципів може не відповідати вимогам існуючих законів, нормативних актів, політики чи міжнародних документів або вимогам федеральних відомств, які забезпечують їх дотримання. Ці принципи не спрямовані на те, щоб забороняти чи обмежувати будь-яку законну діяльність державного органу, включно з правоохоронними органами, національною безпекою чи розвідувальною діяльністю» (згідно з документом).

Для тих, хто поспішив підірвати Білль про права штучного інтелекту як юридично необов’язковий, давайте проведемо невеликий уявний експеримент щодо цього різкого твердження. Припустимо, білий документ був опублікований і мав повну силу закону. Насмілюся сказати, що результат був би дещо катастрофічним, принаймні щодо юридичної та суспільної реакції на проголошення.

Законодавці були б обурені тим, що ці зусилля не були спрямовані на нормативні процеси та юридичні процедури для складання таких законів. Підприємства були б розлючені, і це справедливо, якби нові закони виникли без належного повідомлення та обізнаності про те, що це за закони. Виникне різного роду жах і обурення.

Невдалий спосіб тяжіти до зміцнення прав людства в епоху ШІ.

Згадайте, що раніше я почав цю дискусію, згадавши про цінність і життєвість креслень.

Уявіть, що хтось пропустив етап створення креслень і відразу ж почав будувати будинок вашої мрії. Як ви думаєте, як би виглядав будинок? Здається, можна посперечатися, що будинок не буде відповідати тому, що ви думали. Отримана садиба може бути повним безладдям.

Суть полягає в тому, що нам дійсно потрібні креслення, і тепер ми маємо їх, щоб рухатися вперед у розробці розумних законів щодо штучного інтелекту та розширення можливостей впровадження етичного штучного інтелекту.

Тому я хотів би розглянути способи, за допомогою яких проект Білля про права штучного інтелекту можна як би перетворити на будинок. Як ми будемо використовувати план? Які відповідні наступні кроки? Чи цього плану вистачить, чи потрібно більше м’яса на кістках?

Перш ніж перейти до цих важких питань, я хотів би спочатку переконатися, що ми всі на одній сторінці щодо природи ШІ та того, з чого складається сьогоднішній статус.

Встановлення рекордів щодо сучасного ШІ

Я хотів би зробити дуже категоричну заяву.

Чи готові ви?

Сьогодні немає жодного штучного інтелекту, який був би розумним.

У нас цього немає. Ми не знаємо, чи стане можливим розумний ШІ. Ніхто не може точно передбачити, чи ми досягнемо розумного штучного інтелекту, а також того, чи розумний штучний інтелект якимось дивним чином спонтанно виникне у формі обчислювальної когнітивної наднової (зазвичай називається сингулярністю, див. моє висвітлення на посилання тут).

Тип ШІ, на якому я зосереджуюсь, складається з нерозумного ШІ, який ми маємо сьогодні. Якби ми захотіли дико міркувати про розумний ШІ, ця дискусія могла б піти в радикально іншому напрямку. Розумний штучний інтелект мав би відповідати людській якості. Вам слід враховувати, що розумний ШІ є когнітивним еквівалентом людини. Більше того, оскільки деякі припускають, що ми можемо мати суперінтелектуальний ШІ, цілком можливо, що такий ШІ може стати розумнішим за людей (щодо мого дослідження суперінтелектуального ШІ як можливості див. висвітлення тут).

Я настійно пропоную, щоб ми трималися приземлених речей і розглянули сучасний обчислювальний нерозумний ШІ.

Зрозумійте, що сучасний AI не здатний «мислити» будь-яким чином нарівні з людським мисленням. Коли ви взаємодієте з Alexa або Siri, розмовні здібності можуть здатися схожими на людські здібності, але реальність така, що вони обчислювальні й позбавлені людського пізнання. Остання ера ШІ широко використовує машинне навчання (ML) і глибоке навчання (DL), які використовують узгодження обчислювальних шаблонів. Це призвело до систем штучного інтелекту, які мають вигляд людських схильностей. Тим часом, сьогодні немає жодного штучного інтелекту, який мав би вигляд здорового глузду і не мав би жодного когнітивного дива міцного людського мислення.

Будьте дуже обережні з антропоморфізацією сучасного ШІ.

ML/DL є формою узгодження обчислювальних шаблонів. Звичайний підхід полягає в тому, що ви збираєте дані про завдання прийняття рішення. Ви подаєте дані в моделі комп’ютерів ML/DL. Ці моделі прагнуть знайти математичні закономірності. Після виявлення таких закономірностей, якщо вони знайдені, система ШІ використовуватиме ці шаблони під час зустрічі з новими даними. Після представлення нових даних шаблони, засновані на «старих» або історичних даних, застосовуються для прийняття поточного рішення.

Я думаю, ви можете здогадатися, куди це веде. Якщо люди, які приймали рішення за зразком, включали упередження, ймовірно, дані відображають це тонким, але значущим чином. Машинне навчання або глибоке навчання обчислювальний шаблон зіставлення буде просто намагатися математично імітувати дані відповідно. Немає жодної видимості здорового глузду чи інших розумних аспектів моделювання, створеного AI, як такого.

Крім того, розробники ШІ також можуть не усвідомлювати, що відбувається. Таємнича математика в ML/DL може ускладнити виявлення прихованих упереджень. Ви справедливо сподіваєтесь і очікуєте, що розробники ШІ перевірять потенційно приховані упередження, хоча це складніше, ніж може здатися. Існує серйозна ймовірність того, що навіть за відносно великого тестування в моделях зіставлення шаблонів ML/DL все ще будуть присутні упередження.

Ви могли б трохи використати відоме чи сумнозвісне прислів’я «сміття в сміття – виходить». Справа в тому, що це більше схоже на упередження, які підступно вливаються, коли упередження занурюються в ШІ. Алгоритм прийняття рішень (ADM) ШІ аксіоматично стає обтяженим несправедливістю.

Не добре.

Усе це має дуже значний вплив на етику штучного інтелекту та пропонує зручне вікно в отримані уроки (навіть до того, як усі уроки відбудуться), коли справа доходить до спроб законодавчого впровадження штучного інтелекту.

Окрім застосування принципів етики штучного інтелекту в цілому, виникає відповідне питання про те, чи повинні ми мати закони, які регулюватимуть різні види використання ШІ. На федеральному, штатному та місцевому рівнях приймаються нові закони, які стосуються діапазону та характеру розробки ШІ. Зусилля щодо розробки та прийняття таких законів є поступовими. Етика штучного інтелекту служить принаймні тимчасовим засобом і майже напевно певною мірою буде безпосередньо включена в ці нові закони.

Майте на увазі, що деякі категорично стверджують, що нам не потрібні нові закони, які стосуються ШІ, і що наших існуючих законів достатньо. Вони попереджають, що якщо ми все-таки запровадимо деякі з цих законів щодо штучного інтелекту, ми вб’ємо золотого гусака, пригнічуючи досягнення ШІ, які пропонують величезні переваги для суспільства.

У попередніх колонках я розповідав про різні національні та міжнародні спроби розробити та прийняти закони, що регулюють ШІ, див. посилання тут, наприклад. Я також розглянув різні принципи та настанови етики штучного інтелекту, які визначили та прийняли різні країни, включаючи, наприклад, зусилля Організації Об’єднаних Націй, такі як набір етики штучного інтелекту ЮНЕСКО, який прийняли майже 200 країн, див. посилання тут.

Ось корисний ключовий список етичних критеріїв або характеристик систем штучного інтелекту, які я раніше детально досліджував:

  • прозорість
  • Справедливість і справедливість
  • Незлочинність
  • Відповідальність
  • Конфіденційність
  • Вигода
  • Свобода і автономія
  • Довіряйте
  • Sustainability
  • Гідність
  • Солідарність

Ці принципи етики штучного інтелекту повинні щиро використовуватися розробниками штучного інтелекту, а також тими, хто керує розробкою штучного інтелекту, і навіть тими, хто в кінцевому підсумку розміщує та підтримує системи штучного інтелекту.

Усі зацікавлені сторони протягом усього життєвого циклу розробки та використання штучного інтелекту враховуються в межах дотримання встановлених норм етичного штучного інтелекту. Це важливий момент, оскільки звичайне припущення полягає в тому, що «лише кодери» або ті, хто програмує ШІ, підлягають дотриманню понять етики ШІ. Як наголошувалося вище, для розробки та впровадження штучного інтелекту потрібне село, і для цього все село має знати та дотримуватися правил етики штучного інтелекту.

Тепер, коли я заклав корисну основу, ми готові глибше заглибитися в Білль про права ШІ.

Чотири основні способи реалізації Білля про права на штучний інтелект

Хтось дає вам план і каже братися до роботи.

Що ви робите?

У випадку Білля про права штучного інтелекту як плану, розгляньте ці чотири важливі кроки для просування вперед:

  • Служити вхідним матеріалом для формулювання законів ШІ: Використовуйте проект, щоб допомогти у формулюванні законів щодо штучного інтелекту, роблячи це, сподіваючись, на узгодженій основі на федеральному, штатному та місцевому рівнях (можливо, допомагаючи міжнародним правовим зусиллям щодо штучного інтелекту).
  • Допомога в більш широкому впровадженні етики ШІ: Використовуйте проект, щоб сприяти формулюванню етики штучного інтелекту (іноді їх називають «м’якими законами» порівняно з юридично зобов’язуючими «жорсткими законами»), роблячи це, щоб надихати та спрямовувати компанії, окремих осіб, державні установи та інші групи до кращої та послідовнішої етики. Результати ШІ.
  • Діяльність з розробки AI у Shape: Використовуйте план, щоб стимулювати створення методологій розробки ШІ та аспектів навчання, роблячи це, щоб спробувати змусити розробників ШІ та тих, хто розробляє або використовує ШІ, краще знати, як розробити ШІ згідно з бажаними правилами етики ШІ та наперед. майбутнього прийняття законів про ШІ.
  • Мотивуйте появу ШІ, щоб допомогти контролювати ШІ: Скористайтеся схемою, щоб розробити штучний інтелект, який використовуватиметься, щоб спробувати протистояти іншим штучним інтелектам, які можуть зайти на незручну територію. Це одна з тих макроскопічних точок зору, за допомогою яких ми можемо використовувати саме те, що начебто викликає занепокоєння, щоб також (за іронією долі, можна сказати) допомогти нам захиститися.

Я обговорював кожен із цих чотирьох кроків у своїй колонці.

Для цього обговорення я хотів би зосередитися на четвертому переліченому кроці, а саме на тому, що Білль про права на штучний інтелект може слугувати мотивацією до появи штучного інтелекту, щоб допомогти контролювати штучний інтелект. Це дещо шокуючий або несподіваний крок для багатьох, хто ще не повністю вивчив цю сферу розвитку ШІ.

Дозвольте розповісти детальніше.

Проста аналогія повинна зробити свою справу. Сьогодні ми всі звикли до порушень кібербезпеки та зламів хакерів. Майже щодня ми чуємо про нову лазівку в наших комп’ютерах або стикаємося з нею, яка дозволить зловмисникам заволодіти нашими даними або розмістити на наших ноутбуках підлу програму-вимагач.

Одним із засобів боротьби з цими підлими спробами є використання спеціалізованого програмного забезпечення, яке намагається запобігти таким зломам. У вас майже напевно є пакет антивірусного програмного забезпечення на вашому комп’ютері вдома чи на роботі. Ймовірно, на вашому смартфоні є щось подібне, незалежно від того, усвідомлюєте ви це там чи ні.

Я хочу сказати, що іноді вам потрібно боротися з вогнем вогнем (див. моє висвітлення цього питання, наприклад на посилання тут та посилання тут).

У випадку штучного інтелекту, який потрапляє в заборонену сферу ШІ для поганого, ми можемо шукати використання ШІ для добра що бореться з цим зловмисним ШІ для поганого. Звичайно, це не чудодійний засіб. Як ви знаєте, між зловмисниками, які намагаються зламати наші комп’ютери, і прогресом, досягнутим у захисті кібербезпеки, точиться постійна гра в коти-мишки. Це майже нескінченна гра.

Ми можемо використовувати ШІ, щоб спробувати впоратися з ШІ, який пішов забороненим шляхом. Це допоможе. Це не буде срібною кулею, оскільки шкідливий штучний інтелект, на який націлено, майже напевно буде розроблений, щоб уникнути будь-якого такого захисту. Це буде триваюча боротьба ШІ проти штучного інтелекту.

У будь-якому випадку ШІ, який ми використовуємо для захисту, забезпечить певний захист від поганого ШІ. Таким чином, нам, безсумнівно, потрібно розробити штучний інтелект, який міг би захистити або захистити нас. І ми також повинні прагнути створити захисний штучний інтелект, який буде адаптуватися, коли поганий штучний інтелект адаптуватиметься. Буде люта подоба блискавичної «кота-мишки».

Не всім подобається таке розширення ролі ШІ.

Ті, хто вже сприймає ШІ як однорідний аморфний конгломерат, отримають мурашки по шкірі та кошмари від цього удаваного гамбіту ШІ проти ШІ. Якщо ми спробуємо протиставити вогонь вогню, можливо, ми просто розпалимо ще більшу пожежу. Штучний інтелект стане величезним вогнищем, яке ми більше не контролюємо, і вирішить поневолити людство або знищити нас з планети. Коли справа доходить до обговорення штучного інтелекту як екзистенційного ризику, ми зазвичай змушені вірити, що весь штучний інтелект об’єднається разом, перегляньте моє обговорення цих питань на посилання тут. Розумієте, нам кажуть, що кожна частина штучного інтелекту захопить своїх братів штучного інтелекту і стане однією великою унітарною родиною.

Це жахливий і безперечно тривожний сценарій розумного штучного інтелекту як безшовної мафії «всі за одного й один за всіх».

Хоча ви вільно можете робити такі припущення щодо того, що це колись може статися, я запевняю вас, що наразі ШІ, який ми маємо сьогодні, складається з вантажівок роз’єднаних різнорідних програм ШІ, які не мають особливого способу змовлятися одна з одною.

Сказавши це, я впевнений, що ті, хто палко вірить у теорії змови ШІ, наполягатимуть на тому, що я сказав це навмисно, щоб приховати правду. Ага! Можливо, мені розплачується сьогоднішній штучний інтелект, який уже планує грандіозне поглинання штучного інтелекту (так, сер, я буду купатися в багатстві, коли правлять володарі ШІ). Або, і я точно не віддаю перевагу цьому іншому ракурсу, можливо, я сліпо не знаю про те, як штучний інтелект таємно плете змови за нашими спинами. Гадаю, нам доведеться почекати, щоб побачити, чи є я частиною штучного інтелекту, чи байдужим штучним інтелектом (ой, боляче).

Повертаючись до земних міркувань, давайте коротко дослідимо, як сучасний штучний інтелект може бути використаний для сприяння реалізації Білля про права на штучний інтелект. Я буду зручно і коротко називати це як Хороший AI.

Ми будемо використовувати п’ять наріжних каменів, втілених у Біллі про права ШІ:

  • Хороший ШІ для просування Безпечні та ефективні системи: Кожного разу, коли ви підпорядковуєтеся або використовуєте систему штучного інтелекту, Good AI намагається з’ясувати, чи є використовуваний штучний інтелект небезпечним або неефективним. Після такого виявлення Хороший ШІ може попередити вас або вжити інших дій, зокрема заблокувати Поганий ШІ.
  • Хороший ШІ для надання Алгоритмічний захист від дискримінації: Під час використання системи ШІ, яка може містити дискримінаційні алгоритми, Хороший AI намагається з’ясувати, чи існує для вас неадекватний захист, і прагне визначити, чи дійсно існують надмірні упередження у використовуваному ШІ. Good AI може інформувати вас, а також потенційно автоматично повідомляти про інший AI різним органам, як це може бути передбачено законами про AI та правовими вимогами.
  • Хороший ШІ для збереження Конфіденційність даних: Цей тип Good AI намагається захистити вас від вторгнення в конфіденційність даних. Коли інший штучний інтелект намагається отримати від вас дані, які, можливо, справді не потрібні, Хороший штучний інтелект повідомить вам про перевищення норми. Хороший штучний інтелект також потенційно може маскувати ваші дані таким чином, що після передачі іншим штучним інтелектом все ще збережуться ваші права на конфіденційність даних. тощо
  • Хороший ШІ для встановлення Повідомлення та пояснення: Ми всі, ймовірно, зіткнемося з системами штучного інтелекту, яким дуже не вистачає належних і відповідних сповіщень і які, на жаль, не можуть продемонструвати адекватне пояснення своїх дій. Хороший ШІ може спробувати інтерпретувати або запитати інший ШІ, роблячи це, щоб потенційно ідентифікувати сповіщення та пояснення, які мали бути надані. Навіть якщо це неможливо зробити в даному випадку, Хороший ШІ принаймні попередить вас про недоліки іншого ШІ та, можливо, повідомить про ШІ уповноважені органи на основі передбачених законів ШІ та правових вимог.
  • Хороший ШІ для пропозиції Людські альтернативи, розгляд і резервний варіант: Припустімо, що ви використовуєте систему штучного інтелекту, і штучний інтелект, здається, не справляється з поставленим завданням. Ви можете не усвідомлювати, що справи йдуть погано, або ви можете бути дещо настороженими та не впевненими, що робити з ситуацією. У такому випадку Хороший ШІ мовчки перевіряв би, що робить інший ШІ, і міг би попередити вас про важливі занепокоєння щодо цього ШІ. Тоді вам буде запропоновано надіслати запит на людську альтернативу ШІ (або Хороший ШІ може зробити це від вашого імені).

Щоб зрозуміти далі, як цей вид Хороший AI можна розробити та застосувати, перегляньте мою популярну та високо оцінену книгу про штучний інтелект (маю честь сказати, що вона була відзначена як «десятка кращих») про те, що я зазвичай називаю ангелами-охоронцями ШІ, див. посилання тут.

Висновок

Я знаю, що ви думаєте. Якщо у нас є Хороший ШІ, розроблений, щоб захищати нас, припустімо, що Хороший ШІ стає поганим ШІ. Відома або сумнозвісна латинська фраза здається цілком доречною для цієї можливості: Quis custodiet ipsos custodes?

Цю фразу приписують римському поету Ювеналію, і її можна знайти в його творі під назвою Сатири, і можна вільно перекласти як означає, хто буде охороняти або стежити за самими охоронцями. Багато фільмів і телешоу, наприклад Star Trek неодноразово використовували цю лінію.

Безсумнівно, тому що це чудовий момент.

Звичайно, будь-які прийняті закони про штучний інтелект повинні охоплювати як поганий штучний інтелект, так і навіть хороший штучний інтелект, який стає поганим. Ось чому надзвичайно важливо написати розумні та всеохоплюючі закони щодо ШІ. Законодавці, які просто намагаються кинути навмання юридичні норми та сподіваються, що вони дотримаються законів щодо штучного інтелекту, виявляться глибоко невдалими.

Нам це не потрібно.

У нас немає ні часу, ні ми можемо нести суспільні витрати, щоб впоратися з неадекватно розробленими законами ШІ. Я зазначав, що, на жаль, часом ми стаємо свідками нових законів, пов’язаних зі штучним інтелектом, які погано складені та рясніють усілякими юридичними недугами. Дивіться, наприклад, мій пробний аналіз закону Нью-Йорка про перевірку упереджень штучного інтелекту на сайті посилання тут.

Давайте переконаємося, що ми належним чином використовуємо план Білля про права на штучний інтелект, який зараз маємо в руках щодо штучного інтелекту. Якщо ми ігноруватимемо проект, ми втратимо можливість активізувати нашу гру. Якщо ми неправильно реалізуємо проект, нам буде ганьба за те, що ми узурпували корисну основу.

Шановний римський поет Ювенал сказав ще щось, що ми можемо використати в цій обставині: Anima sana in corpore sano.

Загалом це означає твердження, що було б розумно мати здоровий або здоровий розум і здорове або здорове тіло. Згідно з Ювеналом, це дозволяє нам витримати будь-яку працю і, безперечно, буде єдиною дорогою до життя в мирі чи доброчесності.

Нам настав час використовувати здоровий розум і здорове тіло, щоб переконатися, що ми гарантуємо, що наші права людства будуть збережені та надійно зміцнені в новонародженому світі всюдисущого, а часом і неприємного ШІ. Це слушна порада від римлян, якої ми повинні дотримуватися в сучасній суєті в епоху безладного штучного інтелекту та майбутнє, яке вирішально наповнене як хорошим, так і поганим ШІ.

Джерело: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- Білль про права