Відповідальний штучний інтелект насолоджується видатним прискоренням через проголошення етики штучного інтелекту від провідного професійного товариства ACM

Ви бачили чи чули новини?

Нещодавно було проголошено ще один набір правил етики ШІ.

Бурхливі оплески, будь ласка.

Знову ж таки, ви можете НЕ помітили це завдяки тому факту, що так багато інших указів щодо етики штучного інтелекту вже деякий час ширяють. Деякі кажуть, що, здавалося б, безперервне просочування етичних проголошень штучного інтелекту стає трохи заціпенілим. Скільки нам потрібно? Чи може хтось встигнути за ними всіма? Який з них найкращий? Можливо, ми переборщили принципи етики ШІ? І так далі.

Що ж, у цьому конкретному випадку я кажу, що ми повинні особливо вітати це останнє доповнення до клубу.

За мить я проникливо поясню чому.

По-перше, як роз’яснення, я маю на увазі набір правил етики ШІ, який зараз офіційно відомий як «Заява про принципи для відповідальних алгоритмічних систем” який нещодавно був опублікований Радою з технологічної політики ACM 26 жовтня 2022 року. Подяка командам експертів, які створили цей цінний документ, включаючи співавторів Жанну Метьюз (Університет Кларксона) і Рікардо Баеза-Йейтс (Університет Помпеу Фабра ).

Ті з вас, хто знає, можуть після уважного розгляду зрозуміти, що цей документ виглядає трохи знайомим.

Добре око!

Це останнє втілення, по суті, є оновленим і розширеним варіантом попередньої спільної «Заяви про алгоритмічну прозорість і підзвітність», яка була оприлюднена Комітетом з технологічної політики ACM США та Комітетом з технологічної політики ACM в Європі в 2017 році. Вірні читачі моїх колонок можуть згадати, що Я час від часу згадував указ 2017 року у своїй колонці, присвяченій ключовим аспектам, що лежать в основі етики та законодавства щодо штучного інтелекту.

Для моєї обширної та постійної оцінки та аналізу тенденцій щодо етики штучного інтелекту та законодавства щодо штучного інтелекту див посилання тут та посилання тут, просто назвемо декілька.

Ця остання заява ACM особливо важлива з кількох важливих причин.

Ось чому.

ACM, що є зручним абревіатурою для Асоціація обчислювальної техніки, вважається найбільшою у світі асоціацією, орієнтованою на обчислення. За оцінками, ACM нараховує близько 110,000 1947 членів і є давнім піонером у галузі комп’ютерів. ACM проводить одні з найкращих наукових досліджень у галузі обчислювальної техніки, а також надає професійні мережі та звертається до практиків з обчислювальної техніки. Таким чином, ACM є важливим голосом, який представляє загалом високотехнологічні компанії, які наполегливо прагнули розвивати комп’ютерну сферу (ACM було засновано в XNUMX році).

Я міг би також додати трохи особистого зауваження щодо цього. Коли я вперше почав вивчати комп’ютери в середній школі, я приєднався до ACM і брав участь у їхніх освітніх програмах, особливо в захоплюючій нагоді взяти участь у їхньому щорічному конкурсі з комп’ютерного програмування (такі змагання є широко поширеними в наш час і зазвичай називаються хакатони). Я продовжую працювати в ACM під час навчання в коледжі через відділ місцевого університету, і отримав можливість навчитися лідерству, ставши офіцером студентського відділення. Увійшовши в індустрію, я приєднався до професійного відділення та знову взяв на себе керівну роль. Пізніше після цього, коли я став професором, я працював у комітетах і редакційних колегіях ACM, а також спонсорував студентський відділ студентського містечка. Навіть сьогодні я активно беру участь у ACM, зокрема в Комітеті з технологічної політики ACM США.

Мені подобається привабливе та стійке бачення ACM щодо навчання протягом усього життя та розвитку кар’єри.

У будь-якому випадку, з точки зору останньої заяви про етику AI, той факт, що це було видано ACM, має певну вагу. Ви можете обґрунтовано стверджувати, що етичні принципи штучного інтелекту є сукупністю або колективним голосом всесвітньої групи комп’ютерних професіоналів. Це щось говорить.

Існує також той аспект, що інші в області комп’ютерів будуть надихнути підбадьоритися і прислухатися до того, що належним чином приділятимуть увагу заяві їхніх колег-комп’ютерників. Таким чином, навіть для тих, хто не є членом ACM або взагалі нічого не знає про шановану групу, ми сподіваємось, буде великий інтерес до відкриття, про що йде мова.

Тим часом ті, що є поза у галузі обчислювальної техніки може бути привернуто до заяви як свого роду закулісного огляду того, що ті, хто займається комп’ютерами, говорять про етичний ШІ. Проте я хочу підкреслити, що ця заява призначена для всіх, а не лише для комп’ютерної спільноти, і тому майте на увазі, що принципи етики штучного інтелекту є, так би мовити, повсюдними.

Нарешті, є додатковий поворот, який мало хто подумає.

Іноді аутсайдери сприймають комп’ютерні асоціації як такі, що стоять на колінах у технологіях і не особливо усвідомлюють суспільний вплив комп’ютерів та ШІ. У вас може виникнути спокуса припустити, що такі професійні організації дбають лише про найновіші та найпопулярніші прориви в апаратному чи програмному забезпеченні. Громадськість сприймає їх, просто кажучи грубо, як технарів-ботанів.

Відразу кажучи, я був занурений у соціальні наслідки обчислювальної техніки відтоді, як уперше познайомився з комп’ютерами, і ACM також активно займався цими темами.

Для тих, хто здивований тим, що цю заяву про принципи етики штучного інтелекту склав і оприлюднив ACM, вони не звертають уваги на тривале дослідження та роботу, що проводиться з цих питань. Я також закликаю зацікавлених добре оглянути ACM Етичний кодекс, суворий кодекс професійної етики, який розвивався протягом багатьох років і підкреслює, що розробники систем повинні знати, дотримуватися та бути пильними щодо етичних наслідків своїх зусиль і товарів.

Інтелектуальний інтелект розпалює вогонь, дізнавшись про комп’ютерну етику.

Помітність етичних і правових міркувань у сфері комп’ютерів надзвичайно зросла з появою сучасного ШІ. Працівників цієї професії інформують, а часом і заперечують, щоб приділити належну увагу питанням етики та законодавства щодо штучного інтелекту. Законодавці все більше усвідомлюють аспекти етики ШІ та законів щодо ШІ. Компанії розуміють, що штучний інтелект, який вони розробляють або використовують, є водночас і вигідним, і водночас часом створює величезні ризики та потенційні недоліки.

Давайте розберемо все, що відбувалося протягом останніх кількох років, щоб можна було встановити відповідний контекст, перш ніж перейти до цього останнього набору правил етики ШІ.

Зростання обізнаності про етичний ШІ

Нещодавня ера штучного інтелекту спочатку розглядалася як така ШІ для добра, що означає, що ми можемо використовувати ШІ для покращення людства. На п'ятах ШІ для добра прийшло усвідомлення, що ми також занурені в ШІ для поганого. Це стосується штучного інтелекту, створеного або зміненого самостійно таким чином, щоб бути дискримінаційним, і робить обчислювальний вибір із зайвими упередженнями. Іноді штучний інтелект побудований таким чином, а в інших випадках він повертає на цю непривабливу територію.

Я хочу переконатися, що ми знаходимося на одній сторінці щодо природи сучасного ШІ.

Сьогодні немає жодного штучного інтелекту, який був би розумним. У нас цього немає. Ми не знаємо, чи буде можливий розумний ШІ. Ніхто не може влучно передбачити, чи досягнемо ми розумного ШІ, ані чи стане розумний ШІ якимось дивом спонтанно виникнути у формі обчислювальної когнітивної наднової (як правило, її називають сингулярністю, див. моє висвітлення на посилання тут).

Тип ШІ, на якому я зосереджуюсь, складається з нерозумного ШІ, який ми маємо сьогодні. Якби ми захотіли дико міркувати про розумний ШІ, ця дискусія могла б піти в радикально іншому напрямку. Розумний штучний інтелект мав би відповідати людській якості. Вам слід враховувати, що розумний ШІ є когнітивним еквівалентом людини. Більше того, оскільки деякі припускають, що ми можемо мати суперінтелектуальний ШІ, цілком можливо, що такий ШІ може стати розумнішим за людей (щодо мого дослідження суперінтелектуального ШІ як можливості див. висвітлення тут).

Я настійно пропоную, щоб ми трималися приземлених речей і розглянули сучасний обчислювальний нерозумний ШІ.

Зрозумійте, що сучасний AI не здатний «мислити» будь-яким чином нарівні з людським мисленням. Коли ви взаємодієте з Alexa або Siri, розмовні здібності можуть здатися схожими на людські здібності, але реальність така, що вони обчислювальні й позбавлені людського пізнання. Остання ера ШІ широко використовує машинне навчання (ML) і глибоке навчання (DL), які використовують узгодження обчислювальних шаблонів. Це призвело до систем штучного інтелекту, які мають вигляд людських схильностей. Тим часом, сьогодні немає жодного штучного інтелекту, який мав би вигляд здорового глузду і не мав би жодного когнітивного дива міцного людського мислення.

Будьте дуже обережні з антропоморфізацією сучасного ШІ.

ML/DL є формою узгодження обчислювальних шаблонів. Звичайний підхід полягає в тому, що ви збираєте дані про завдання прийняття рішення. Ви подаєте дані в моделі комп’ютерів ML/DL. Ці моделі прагнуть знайти математичні закономірності. Після виявлення таких закономірностей, якщо вони знайдені, система ШІ використовуватиме ці шаблони під час зустрічі з новими даними. Після представлення нових даних шаблони, засновані на «старих» або історичних даних, застосовуються для прийняття поточного рішення.

Я думаю, ви можете здогадатися, куди це веде. Якщо люди, які приймали рішення за зразком, включали упередження, ймовірно, дані відображають це тонким, але значущим чином. Машинне навчання або глибоке навчання обчислювальний шаблон зіставлення буде просто намагатися математично імітувати дані відповідно. Немає жодної видимості здорового глузду чи інших розумних аспектів моделювання, створеного AI, як такого.

Крім того, розробники ШІ також можуть не усвідомлювати, що відбувається. Таємнича математика в ML/DL може ускладнити виявлення прихованих упереджень. Ви справедливо сподіваєтесь і очікуєте, що розробники ШІ перевірять потенційно приховані упередження, хоча це складніше, ніж може здатися. Існує серйозна ймовірність того, що навіть за відносно великого тестування в моделях зіставлення шаблонів ML/DL все ще будуть присутні упередження.

Ви могли б трохи використати відоме чи сумнозвісне прислів’я «сміття в сміття – виходить». Справа в тому, що це більше схоже на упередження, які підступно вливаються, коли упередження занурюються в ШІ. Алгоритм прийняття рішень (ADM) ШІ аксіоматично стає обтяженим несправедливістю.

Не добре.

Усе це має дуже значний вплив на етику штучного інтелекту та пропонує зручне вікно в отримані уроки (навіть до того, як усі уроки відбудуться), коли справа доходить до спроб законодавчого впровадження штучного інтелекту.

Окрім застосування принципів етики штучного інтелекту в цілому, виникає відповідне питання про те, чи повинні ми мати закони, які регулюватимуть різні види використання ШІ. На федеральному, штатному та місцевому рівнях приймаються нові закони, які стосуються діапазону та характеру розробки ШІ. Зусилля щодо розробки та прийняття таких законів є поступовими. Етика штучного інтелекту служить принаймні тимчасовим засобом і майже напевно певною мірою буде безпосередньо включена в ці нові закони.

Майте на увазі, що деякі категорично стверджують, що нам не потрібні нові закони, які стосуються ШІ, і що наших існуючих законів достатньо. Вони попереджають, що якщо ми все-таки запровадимо деякі з цих законів щодо штучного інтелекту, ми вб’ємо золотого гусака, пригнічуючи досягнення ШІ, які пропонують величезні переваги для суспільства.

У попередніх колонках я розповідав про різні національні та міжнародні спроби розробити та прийняти закони, що регулюють ШІ, див. посилання тут, наприклад. Я також розглянув різні принципи та настанови етики штучного інтелекту, які визначили та прийняли різні країни, включаючи, наприклад, зусилля Організації Об’єднаних Націй, такі як набір етики штучного інтелекту ЮНЕСКО, який прийняли майже 200 країн, див. посилання тут.

Ось корисний ключовий список етичних критеріїв або характеристик систем штучного інтелекту, які я раніше детально досліджував:

  • прозорість
  • Справедливість і справедливість
  • Незлочинність
  • Відповідальність
  • Конфіденційність
  • Вигода
  • Свобода і автономія
  • Довіряйте
  • Sustainability
  • Гідність
  • Солідарність

Ці принципи етики штучного інтелекту повинні щиро використовуватися розробниками штучного інтелекту, а також тими, хто керує розробкою штучного інтелекту, і навіть тими, хто в кінцевому підсумку розміщує та підтримує системи штучного інтелекту.

Усі зацікавлені сторони протягом усього життєвого циклу розробки та використання штучного інтелекту враховуються в межах дотримання встановлених норм етичного штучного інтелекту. Це важливий момент, оскільки звичайне припущення полягає в тому, що «лише кодери» або ті, хто програмує ШІ, підлягають дотриманню понять етики ШІ. Як наголошувалося вище, для розробки та впровадження штучного інтелекту потрібне село, і для цього все село має знати та дотримуватися правил етики штучного інтелекту.

Я також нещодавно перевірив Білль про права AI це офіційна назва офіційного документа уряду США під назвою «Проект Білля про права на штучний інтелект: щоб автоматизовані системи працювали на користь американського народу», який став результатом річних зусиль Управління науково-технічної політики (OSTP). ). OSTP є федеральним органом, який надає консультації американському президенту та виконавчому офісу США з різних технологічних, наукових та інженерних аспектів національного значення. У цьому сенсі ви можете сказати, що цей Білль про права на штучний інтелект є документом, схваленим і схваленим існуючим Білим домом США.

У Біллі про права штучного інтелекту є п’ять ключових категорій:

  • Безпечні та ефективні системи
  • Алгоритмічний захист від дискримінації
  • Конфіденційність даних
  • Повідомлення та пояснення
  • Людські альтернативи, розгляд і резервний варіант

Я уважно переглянув ці правила, бачите посилання тут.

Тепер, коли я заклав корисну основу для цих тем, пов’язаних із етикою штучного інтелекту та законодавством щодо штучного інтелекту, ми готові перейти до нещодавно випущеного ACM «Заява про принципи для відповідальних алгоритмічних систем» (до речі, оскільки назва документа посилається на відповідальний алгоритмічних систем, ви можете поглянути на мою оцінку того, про що це означає говорити Надійний ШІСм. посилання тут).

Підготуйтеся до знайомства з цим останнім набором принципів етики ШІ.

Уважно досліджуйте декларовані ACM правила етики штучного інтелекту

Заява ACM про етичний штучний інтелект складається з цих дев’яти ключових каменів:

  • Легітимність і компетентність
  • Мінімізація шкоди
  • Безпека і конфіденційність
  • прозорість
  • Інтерпретативність і пояснюваність
  • Підтримка
  • Конкурсність і перевіряемість
  • Підзвітність і відповідальність
  • Обмеження впливу на навколишнє середовище

Якщо ви порівнюєте цей останній набір з іншими доступними наборами, то між ними є багато схожості чи подібності.

З одного боку, ви можете сприйняти це як хороший знак.

Загалом ми можемо сподіватися, що низка принципів етики штучного інтелекту, які витають навколо, об’єднаються в одне й те саме загальне охоплення. Бачачи, що один набір певною мірою можна порівняти з іншим набором, ви отримуєте подобу впевненості в тому, що ці набори знаходяться в одному полі, а не в дивовижному лівому полі.

Дехто може скаржитися на те, що ці різні набори виглядають приблизно однаковими, що, можливо, створює плутанину або принаймні жах через сумнів, що ми не повинні мати численні, здавалося б, повторювані списки. Чи не може бути тільки один список? Звичайно, проблема полягає в тому, що немає простого способу змусити всі такі списки однаково бути однаковими. Різні групи та різні організації підійшли до цього по-різному. Хороша новина полягає в тому, що практично всі вони дійшли одного й того самого загального висновку. Ми можемо відчути полегшення, оскільки набори не мають великих відмінностей, які, можливо, викликали б у нас занепокоєння, якби не було загального консенсусу.

Протилежний може закликати, що спільність цих списків викликає занепокоєння, стверджуючи, що, можливо, існує групове мислення. Можливо, усі ці різнорідні групи думають однаково і не можуть вийти за межі норми. Усі ми потрапляємо в однакову пастку. Списки нібито закріплюють наше мислення, і ми не можемо бачити далі власного носа.

Дивлячись далі свого носа, безсумнівно, є гідною справою.

Звичайно, я готовий почути те, що мають сказати протилежні. Іноді вони вловлюють щось, що має Титанічна прямуючи до гігантського айсберга. Нам може знадобитися кілька орлиних спостережників. Але щодо цих принципів етики штучного інтелекту протилежними сторонами не було нічого чітко сформульованого, що явно підриває чи викликає занепокоєння щодо надмірної спільності. Я думаю, у нас все гаразд.

У цьому наборі ACM є кілька особливо помітних або видатних моментів, які, на мою думку, заслуговують особливої ​​уваги.

По-перше, мені подобається формулювання найвищого рівня, яке дещо відрізняється від стандартного.

Наприклад, посилаючись на легітимність і компетентність (перший маркований пункт) викликає уяву про важливість як дизайнерських, так і управлінських компетенцій, пов’язаних зі ШІ. Крім того, легітимність крилата фраза в кінцевому підсумку переносить нас у етику ШІ та Сфера права ШІ. Я кажу це тому, що багато принципів етики штучного інтелекту майже повністю зосереджені на етичних наслідках, але, здається, упускають або соромляться помічати також правові наслідки. У юридичній сфері етичні міркування часто рекламуються як «м’яке право», тоді як закони в книгах тлумачаться як «жорсткі закони» (це означає, що вони мають вагу судових органів).

Одне з моїх улюблених висловів усіх часів було вимовлено відомим юристом Ерлом Ворреном: «У цивілізованому житті закон плаває в морі етики».

Нам потрібно переконатися, що принципи етики штучного інтелекту також охоплюють і підкреслюють жорстку правову сторону речей, наприклад, під час розробки, прийняття та забезпечення виконання законів щодо штучного інтелекту.

По-друге, я ціную те, що список включає оспорюваність і перевіряемість.

Я неодноразово писав про цінність можливості змагатися або підняти червоний прапорець, коли ви підпорядковуєтеся системі ШІ, див. посилання тут. Крім того, ми будемо бачити нові закони, які зобов’язують перевіряти системи штучного інтелекту, про що я вже довго говорив про закон Нью-Йорка (Нью-Йорк) щодо упередженого аудиту систем штучного інтелекту, які використовуються для найму працівників і просування по службі, див. посилання тут. На жаль, і якщо я відкрито критикую новий закон Нью-Йорка, якщо ці закони про перевірку є недоліками, вони, ймовірно, створять більше проблем, ніж вирішать.

По-третє, відбувається поступове пробудження того, що штучний інтелект може впливати на проблеми сталого розвитку, і я радий бачити, що навколишній Тема отримала виставлення рахунків найвищого рівня в цих правилах етики ШІ (див. останній пункт списку).

Сам по собі акт створення системи ШІ може споживати багато обчислювальних ресурсів. Ці обчислювальні ресурси можуть прямо чи опосередковано бути узурпаторами сталого розвитку. Слід розглянути компроміс між перевагами, які надає штучний інтелект, і витратами, пов’язаними з цим. В останньому пункті, позначеному ACM, згадується питання сталого розвитку та екологічності, які виникають у зв’язку зі штучним інтелектом. Щоб дізнатися про моє висвітлення проблем, пов’язаних із вуглецевим слідом, див посилання тут.

Тепер, коли ми детально ознайомилися зі списком правил етики штучного інтелекту ACM, ми заглибимося у воду ще глибше.

Нижче наведено офіційні описи для кожного з принципів етики ШІ високого рівня (цитується з офіційної заяви):

1. "Легітимність і компетентність: Розробники алгоритмічних систем повинні мати управлінську компетентність і явні повноваження для створення та розгортання таких систем. Вони також повинні володіти досвідом у сфері застосування, науковою основою для передбачуваного використання систем і широко розглядатися як соціально легітимні зацікавлені сторони, на які впливає система. Необхідно провести юридичну та етичну оцінку, щоб підтвердити, що будь-які ризики, створені системами, будуть пропорційними проблемам, які вирішуються, і що всі відповідні зацікавлені сторони розуміють будь-які компроміси між користю та шкодою».

2. "Мінімізація шкоди: Менеджери, дизайнери, розробники, користувачі та інші зацікавлені сторони алгоритмічних систем повинні знати про можливі помилки та упередження, пов’язані з їх проектуванням, впровадженням і використанням, а також про потенційну шкоду, яку система може завдати окремим особам і суспільству. Організації повинні регулярно проводити оцінку впливу на системи, які вони використовують, щоб визначити, чи може система завдати шкоди, особливо дискримінаційної шкоди, і застосувати відповідні засоби пом’якшення. Коли це можливо, вони повинні вчитися на показниках фактичної ефективності, а не лише на моделях минулих рішень, які самі по собі могли бути дискримінаційними».

3. "Безпека та конфіденційність: Ризик від зловмисників можна зменшити, запровадивши найкращі методи безпеки та конфіденційності на кожному етапі життєвого циклу системи, включаючи надійні засоби контролю для пом’якшення нових вразливостей, які виникають у контексті алгоритмічних систем».

4. "Прозорість: Розробникам систем рекомендується чітко задокументувати спосіб, у який конкретні набори даних, змінні та моделі були обрані для розробки, навчання, перевірки та тестування, а також конкретні заходи, які використовувалися для гарантування якості даних і вихідних даних. Системи повинні вказувати свій рівень впевненості в кожному виході, і люди повинні втручатися, коли впевненість низька. Розробники також повинні задокументувати підходи, які використовувалися для дослідження потенційних упереджень. Для систем, які критично впливають на життя та благополуччя, повинні вимагатися процедури незалежної перевірки та підтвердження. Громадський контроль даних і моделей надає максимум можливостей для виправлення. Таким чином, розробники повинні сприяти сторонньому тестуванню в суспільних інтересах».

5. "Можливість тлумачення та пояснення: Менеджерам алгоритмічних систем рекомендується надавати інформацію як щодо процедур, яким дотримуються застосовані алгоритми (можливість інтерпретації), так і щодо конкретних рішень, які вони приймають (можливість пояснення). Зрозумілість може бути такою ж важливою, як і точність, особливо в контексті державної політики або в будь-якому середовищі, в якому існує занепокоєння щодо того, як алгоритми можуть бути спотворені, щоб принести користь одній групі перед іншою без підтвердження. Важливо розрізняти пояснення та пояснення постфактум, які не відображають доказів або процесу прийняття рішень, використаних для досягнення висновку, який пояснюється».

6. "Ремонтопридатність: Слід збирати докази надійності всіх алгоритмічних систем протягом їхнього життєвого циклу, включаючи документацію системних вимог, проектування або впровадження змін, тестові випадки та результати, а також журнал знайдених і виправлених помилок. Належне технічне обслуговування може вимагати перенавчання систем із новими навчальними даними та/або заміни використовуваних моделей».

7. "Конкурсність та можливість перевірки: Регулятори повинні заохочувати впровадження механізмів, які дозволяють окремим особам і групам сумніватися в результатах і шукати відшкодування за несприятливі наслідки в результаті алгоритмічно обґрунтованих рішень. Менеджери повинні гарантувати, що дані, моделі, алгоритми та рішення записуються, щоб їх можна було перевірити, а результати відтворити у випадках, коли є підозра або ймовірність заподіяння шкоди. Стратегії аудиту мають бути оприлюднені, щоб дати можливість окремим особам, громадським організаціям і дослідникам переглядати та рекомендувати вдосконалення».

8. "Підзвітність і відповідальність: Державні та приватні органи повинні нести відповідальність за рішення, прийняті алгоритмами, які вони використовують, навіть якщо неможливо детально пояснити, як ці алгоритми дали свої результати. Такі органи повинні нести відповідальність за цілі системи, розгорнуті в їхніх конкретних контекстах, а не лише за окремі частини, які складають дану систему. У разі виявлення проблем в автоматизованих системах організації, відповідальні за розгортання цих систем, повинні задокументувати конкретні дії, які вони вживатимуть для усунення проблеми, і за яких обставин використання таких технологій має бути призупинено або припинено».

9. "Обмеження впливу на навколишнє середовище: Алгоритмічні системи повинні бути сконструйовані так, щоб звітувати про оцінки впливу на навколишнє середовище, включаючи викиди вуглецю, як під час навчання, так і під час операційних обчислень. Системи штучного інтелекту мають бути розроблені таким чином, щоб їхні викиди вуглецю були розумними, враховуючи ступінь точності, який вимагається контекстом, у якому вони розгортаються».

Я вірю, що ви уважно та завчасно прочитаєте кожне з цих важливих правил етики ШІ. Будь ласка, прийміть їх близько до серця.

Висновок

Є тонка, але не менш важлива частина заяви ACM, яку, я вважаю, багато хто може ненавмисно пропустити. Дозвольте мені обов’язково звернути на це вашу увагу.

Я натякаю на частину, яка обговорює болісну головоломку необхідності зважувати компроміси, пов’язані з правилами етики ШІ. Розумієте, більшість людей часто бездумно кивають головою, читаючи принципи Етичного штучного інтелекту, і припускають, що всі правила мають однакову вагу, і всі правила завжди матимуть однакову оптимальну подобу поваги та цінності.

Не в реальному світі.

Коли гума зустрічається на дорозі, будь-який вид штучного інтелекту, який має хоч трохи складності, буде жорстоко перевіряти принципи етики штучного інтелекту щодо того, чи є деякі елементи достатньо досяжними над деякими іншими принципами. Я розумію, що ви можете голосно вигукувати, що весь ШІ має максимально використовувати всі принципи етики ШІ, але це не дуже реалістично. Якщо ви хочете зайняти таку позицію, я смію сказати, що вам, ймовірно, доведеться сказати більшості або майже всім виробникам і користувачам штучного інтелекту закрити магазин і взагалі відмовитися від штучного інтелекту.

Потрібно йти на компроміси, щоб вивести ШІ з дверей. Зважаючи на це, я не виступаю за скорочення кутів, які порушують правила етики ШІ, і не натякаю, що вони повинні порушувати закони ШІ. Необхідно досягти певного мінімуму, і вище цього потрібно прагнути ще більше. Зрештою, потрібно ретельно оцінити баланс. Цей акт балансування має здійснюватися усвідомлено, чітко, законно та з дотриманням етики штучного інтелекту як добросовісного та щирого переконання (ви можете побачити, як компанії використовують ради з питань етики штучного інтелекту, щоб спробувати отримати цей урочистий підхід, див. посилання тут).

Ось деякі марковані моменти, які згадуються в декларації ACM щодо компромісів (цитата з офіційного документа):

  • «Рішення мають бути пропорційними вирішуваній проблемі, навіть якщо це впливає на складність або вартість (наприклад, відмова від використання публічного відеоспостереження для простого завдання прогнозування)».
  • «Потрібно враховувати широкий спектр показників продуктивності, які можна оцінювати по-різному в залежності від області застосування. Наприклад, у деяких сферах охорони здоров’я наслідки хибно-негативних результатів можуть бути набагато гіршими, ніж хибно-позитивні результати, тоді як у кримінальному судочинстві наслідки хибно-позитивних результатів (наприклад, ув’язнення невинної людини) можуть бути набагато гіршими, ніж хибно-негативні результати. Найбажаніші налаштування операційної системи рідко бувають такими, що забезпечують максимальну точність».
  • «Занепокоєння з приводу конфіденційності, захисту комерційних таємниць або розкриття аналітичних даних, які можуть дозволити зловмисникам обіграти систему, можуть виправдати обмеження доступу кваліфікованим особам, але вони не повинні використовуватися для виправдання обмеження контролю третьої сторони або для звільнення розробників від зобов’язань визнавати та виправляти помилки».
  • «Прозорість має поєднуватися з процесами підзвітності, які дозволяють зацікавленим сторонам, на які впливає алгоритмічна система, шукати суттєвого відшкодування за завдану шкоду. Прозорість не повинна використовуватися для легітимізації системи чи перекладання відповідальності на інші сторони».
  • «Коли вплив системи є високим, більш зрозуміла система може бути кращою. У багатьох випадках немає компромісу між пояснюваністю та точністю. Проте в деяких контекстах неправильні пояснення можуть бути навіть гіршими, ніж відсутність пояснень (наприклад, у системах охорони здоров’я симптом може відповідати багатьом можливим захворюванням, а не лише одній)».

Ті, хто розробляє або використовує штучний інтелект, можуть явно не усвідомлювати, з якими компромісами вони стикаються. Найвищі керівники фірми можуть наївно припустити, що ШІ відповідає максимальним вимогам усіх принципів етики ШІ. Вони або вірять у це, тому що не знають про штучний інтелект, або хочуть у це вірити і, можливо, підморгують, щоб легко прийняти штучний інтелект.

Швидше за все, якщо не вдасться суттєво та відкрито протистояти компромісам, це призведе до ШІ, який завдасть шкоди. Ці збитки, у свою чергу, ймовірно, призведуть до потенційно великомасштабних зобов’язань фірми. Крім того, звичайні закони можуть стати причиною можливих кримінальних дій, пов’язаних зі штучним інтелектом, разом із новими законами, орієнтованими на штучний інтелект, які також торкаються цього. Тонна цеглин чекає над головами тих, хто думає, що зможе обійти компроміси, або тих, хто абсолютно не знає, що компроміси існують (їх неминуче спіткає жахливе усвідомлення).

Наразі я дам останнє слово щодо цієї теми заключному аспекту оголошення ACM, оскільки я вважаю, що він добре пояснює, що макроскопічно мають на меті ці етичні принципи ШІ:

  • «Вищенаведені рекомендації зосереджені на відповідальному проектуванні, розробці та використанні алгоритмічних систем; відповідальність повинна визначатися законом і публічною політикою. Зростаюча потужність алгоритмічних систем та їх використання в життєво важливих і невідкладних програмах означає, що їх використання повинно бути дуже обережним. Ці дев’ять інструментальних принципів покликані бути надихаючими для початку дискусій, ініціювання досліджень і розробки методів управління, щоб принести переваги широкому колу користувачів, одночасно сприяючи надійності, безпеці та відповідальності. Зрештою, саме конкретний контекст визначає правильний дизайн і використання алгоритмічної системи у співпраці з представниками всіх зацікавлених сторін» (цитата з офіційного документа).

Як ясно кажуть мудрі слова, подорож у тисячу миль починається з першого кроку.

Я прошу вас ознайомитися з етикою штучного інтелекту та законодавством щодо штучного інтелекту, зробити будь-який перший крок, який допоможе вам розпочати роботу, а потім допомогти у продовженні цих життєво важливих починань. Принадність полягає в тому, що ми все ще знаходимося в зародковому стані, щоб зрозуміти, як керувати ШІ та впоратися з ним у суспільстві, тому ви перебуваєте на першому поверсі, і ваші зусилля можуть явно сформувати ваше майбутнє та майбутнє для всіх нас.

Штучний інтелект тільки розпочався, і важливі перші кроки ще тривають.

Джерело: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-esteemed-computing- profession-association-the-acm/