Етика штучного інтелекту та закон про штучний інтелект, що пояснює, що насправді є надійним ШІ

Довіра - це все, кажуть.

Відомий філософ Лао-цзи сказав, що тому, хто недостатньо довіряє, не довірятимуть. Ернест Хемінгуей, видатний романіст, заявив, що найкращий спосіб дізнатися, чи можна комусь довіряти, — це довіряти йому.

Між тим, здається, що довіра водночас дорогоцінна і крихка. Довіра може зруйнуватися, як картковий будиночок, або раптово лопнути, як лопнула повітряна кулька.

Давньогрецький трагік Софокл стверджував, що довіра вмирає, а недовіра розквітає. Французький філософ і математик Декарт стверджував, що розумно ніколи повністю не довіряти тим, хто хоч раз обдурив нас. Надзвичайний бізнес-інвестор-мільярдер Уоррен Баффет закликав, що потрібно двадцять років, щоб створити надійну репутацію, і п’ять хвилин, щоб її зруйнувати.

Ви можете бути здивовані, дізнавшись, що всі ці різноманітні погляди та провокаційні думки щодо довіри є вирішальними для появи штучного інтелекту (ШІ).

Так, є те, що гостро називають надійний ШІ що продовжує привертати до біса багато уваги в наші дні, включно з кидками в області штучного інтелекту, а також бурхливими вибухами тих, хто не працює в області штучного інтелекту. Загальне поняття передбачає, чи захоче суспільство довіряти подібним системам ШІ.

Імовірно, якщо суспільство не захоче або не зможе довіряти ШІ, велика ймовірність того, що системи ШІ не отримають тяги. Штучний інтелект, який ми знаємо зараз, буде відсунутий убік і просто збиратиме пил. Приголомшливо, але штучний інтелект може опинитися на смітнику, історично ставши не більш ніж відчайдушно випробуваним, але вражаюче провальним високотехнологічним експериментом. Будь-які спроби відродити штучний інтелект потенційно зіткнуться з величезною важкою битвою та будуть зупинені всілякими запереченнями та відвертими протестами. Нібито через недовіру до ШІ.

Що це буде: довіряти ШІ чи не довіряти ШІ?

По суті, чи буде у нас справді надійний ШІ?

Це колишні та невирішені питання. Давайте розпакуємо його.

Етика ШІ та боротьба за надійний ШІ

Багато людей у ​​сфері штучного інтелекту вважають, що розробники систем штучного інтелекту можуть завоювати довіру до штучного інтелекту, належним чином розробивши штучний інтелект, який заслуговує довіри. Суть полягає в тому, що ви не можете сподіватися на довіру, якщо штучний інтелект з самого початку не заслуговує довіри. Розробляючи системи штучного інтелекту так, щоб вони сприймалися як надійні, існує велика ймовірність того, що люди приймуть штучний інтелект і засвоять його використання.

Один сумнів, який вже турбує цю надійну думку про штучний інтелект, полягає в тому, що ми вже можемо бути в дефіцит громадської довіри коли мова йде про ШІ. Можна сказати, що штучний інтелект, якого ми вже бачили, викопав яму та розкидав довіру у величезних кількостях. Таким чином, замість того, щоб починати з якоїсь достатньої бази надійності, штучному інтелекту доведеться вражаюче позбутися дефіциту, хапаючись за кожну бажану унцію додаткової довіри, яка буде потрібна, щоб переконати людей, що штучний інтелект насправді заслуговує довіри.

У цей виклик входять етика штучного інтелекту та право штучного інтелекту.

Етика штучного інтелекту та право штучного інтелекту дуже важко намагаються з’ясувати, що потрібно зробити, щоб зробити штучний інтелект надійним. Дехто припускає, що існує формула чи залізні закони, які піднесуть штучний інтелект у надійні небеса. Інші вказують, що для того, щоб завоювати хвалену довіру суспільства, знадобиться наполеглива робота та послідовне й неухильне дотримання принципів етики та закону про штучний інтелект.

Сучасна загадка про довіру до штучного інтелекту сама по собі не нова.

Ви можете легко повернутися до кінця 1990-х років і простежити появу бажаного бажання «довірених обчислень» з тих днів. Це була широкомасштабна спроба технологічної індустрії з’ясувати, чи можуть комп’ютери виготовлятися таким чином, щоб суспільство сприймало їх як надійні.

Ключові питання складалися з:

  • Чи можна зробити комп’ютерне обладнання таким, щоб воно було надійним?
  • Чи можна створити програмне забезпечення таким чином, щоб воно було надійним?
  • Чи могли б ми створити надійні об’єднані в глобальну мережу комп’ютери?
  • І так далі.

Переважаючим настроєм тоді й донині є те, що надійні обчислення залишаються різновидом святого Грааля, який, на жаль, досі не зовсім доступний (як зазначено в статті під назвою «Надійний штучний інтелект» у Зв'язок ОСББ). Ви можете переконливо стверджувати, що штучний інтелект є ще одним компонентом обчислювальної надійності, але штучний інтелект робить пошук довіри ще більш складним і непевним. ШІ став потенційним спойлером у боротьбі за створення надійних обчислень. Можливо, найслабша ланка в ланцюзі.

Давайте швидко подивимося, чому штучний інтелект викликав у нас злість про те, що він не заслуговує довіри. Крім того, ми дослідимо принципи етики штучного інтелекту, які, сподіваємося, допоможуть підтримати вже напівпідводну довіру (або киплячу недовіру) до сучасного ШІ. Про мою постійну та широку інформацію про етику штучного інтелекту див посилання тут та посилання тут, просто назвемо декілька.

Один окремий сегмент або частина етики AI, який привертає велику увагу ЗМІ, складається з AI, який демонструє несприятливі упередження та несправедливість. Ви, напевно, знаєте, що коли почалася остання ера штучного інтелекту, виник величезний сплеск ентузіазму щодо того, що дехто зараз називає ШІ для добра. На жаль, після цього хвилювання ми стали свідками ШІ для поганого. Наприклад, було виявлено, що різні системи розпізнавання обличчя на основі штучного інтелекту містять расові та гендерні упередження, які я обговорював на посилання тут.

Зусилля протистояти ШІ для поганого активно ведуться. До того ж крикливий правової прагнення приборкати протиправні дії, є також істотний поштовх до прийняття Етики ШІ, щоб виправити підлість ШІ. Ідея полягає в тому, що ми повинні прийняти та схвалити ключові етичні принципи ШІ для розробки та впровадження ШІ, роблячи це, щоб підірвати ШІ для поганого і водночас проголошуючи та пропагуючи переваги ШІ для добра.

Що стосується пов’язаної думки, то я прихильник спроб використання штучного інтелекту як частини вирішення проблем, пов’язаних із штучним інтелектом, боротися з вогнем у такий спосіб мислення. Наприклад, ми можемо вбудувати етичні компоненти штучного інтелекту в систему штучного інтелекту, яка буде відстежувати, як решта штучного інтелекту робить речі, і, таким чином, потенційно ловити в режимі реального часу будь-які дискримінаційні зусилля, див. моє обговорення на посилання тут. Ми також могли б мати окрему систему штучного інтелекту, яка діятиме як тип монітора етики AI. Система ШІ служить наглядачем, щоб відстежувати та виявляти, коли інший ШІ потрапляє в неетичну прірву (див. мій аналіз таких можливостей на посилання тут).

Через деякий час я поділюся з вами деякими загальними принципами, що лежать в основі етики ШІ. Подібних списків тут і там плаває багато. Можна сказати, що поки що не існує єдиного списку універсальної привабливості та збігу. Ось така сумна новина. Хороша новина полягає в тому, що принаймні є легкодоступні списки етики AI, і вони, як правило, дуже схожі. Все це говорить про те, що завдяки певній формі аргументованої конвергенції ми знаходимо шлях до загальної спільності того, з чого складається етика ШІ.

По-перше, давайте коротко розглянемо деякі загальні правила етичного штучного інтелекту, щоб проілюструвати, що має бути життєво важливим для тих, хто створює, використовує або використовує AI.

Наприклад, як стверджує Ватикан в Рим закликає до етики ШІ і як я детально розглянув на посилання тут, вони визначили шість основних принципів етики ШІ:

  • Прозорість: В принципі, системи штучного інтелекту повинні бути поясненими
  • Включення: Необхідно враховувати потреби всіх людей, щоб кожен міг отримати вигоду, а всім людям могли бути запропоновані найкращі умови для самовираження та розвитку.
  • Відповідальність: Ті, хто розробляє та впроваджує використання ШІ, повинні діяти відповідально та прозоро
  • Неупередженість: Не творіть і не дійте відповідно до упередженості, захищаючи таким чином справедливість і людську гідність
  • Надійність: Системи AI повинні працювати надійно
  • Безпека та конфіденційність: Системи AI повинні працювати безпечно та поважати конфіденційність користувачів.

Про це йдеться в заяві міністерства оборони США (DoD). Етичні принципи використання штучного інтелекту і як я детально розглянув на посилання тут, це їх шість основних принципів етики ШІ:

  • Відповідальний: Персонал Міністерства оборони буде проявляти належний рівень розсудливості та уважності, залишаючись відповідальним за розробку, розгортання та використання можливостей штучного інтелекту.
  • Справедливий: Департамент вживатиме свідомих заходів, щоб мінімізувати ненавмисне упередження в можливостях ШІ.
  • Відстежується: Можливості Департаменту в галузі штучного інтелекту будуть розроблені та розгорнуті таким чином, щоб відповідний персонал володів належним розумінням технології, процесів розробки та операційних методів, застосовних до можливостей штучного інтелекту, включаючи прозорі та піддані аудиту методології, джерела даних, а також процедуру та документацію проектування.
  • надійність: Можливості Департаменту штучного інтелекту будуть мати чітке, чітко визначене використання, а безпека, безпека та ефективність таких можливостей будуть підлягати тестуванню та гарантії в межах цих визначених видів використання протягом усього їхнього життєвого циклу.
  • Керований: Департамент буде розробляти та розробляти можливості штучного інтелекту для виконання своїх призначених функцій, маючи при цьому здатність виявляти й уникати непередбачених наслідків, а також здатність відключати або деактивувати розгорнуті системи, які демонструють ненавмисне поведінку.

Я також обговорював різноманітні колективні аналізи принципів етики ШІ, у тому числі охоплюючи набір, розроблений дослідниками, який розглянув і стиснув суть численних національних і міжнародних принципів етики ШІ в статті під назвою «Глобальний ландшафт етичних принципів ШІ» (опублікований в природа), і що моє висвітлення досліджується на посилання тут, що призвело до цього списку ключових каменів:

  • прозорість
  • Справедливість і справедливість
  • Незлочинність
  • Відповідальність
  • Конфіденційність
  • Вигода
  • Свобода і автономія
  • Довіряйте
  • Sustainability
  • Гідність
  • Солідарність

Як ви можете прямо здогадатися, спробувати визначити особливості, що лежать в основі цих принципів, може бути надзвичайно важко зробити. Більше того, спроба перетворити ці загальні принципи на щось цілком відчутне і досить детальне, щоб використовувати його при створенні систем штучного інтелекту, також є міцним горіхом. Загалом легко пояснити, що таке заповіді етики штучного інтелекту та як їх слід дотримуватись, в той час як набагато складніша ситуація в кодуванні AI — це справжня гумка, яка зустрічає дорогу.

Принципи етики штучного інтелекту мають використовуватися розробниками штучного інтелекту, а також тими, хто керує розробкою штучного інтелекту, і навіть тими, хто в кінцевому підсумку займається технічним обслуговуванням систем ШІ. Усі зацікавлені сторони протягом усього життєвого циклу розробки та використання ШІ розглядаються в рамках дотримання встановлених норм етичного ШІ. Це важливий момент, оскільки звичайне припущення полягає в тому, що «лише кодери» або ті, хто програмує ШІ, підлягають дотриманню концепцій етики ШІ. Як було сказано раніше, для розробки та використання штучного інтелекту потрібне село, і для цього все село має бути обізнаним і дотримуватися правил етики ШІ.

Давайте також переконаємося, що ми на одній сторінці щодо природи сьогоднішнього ШІ.

Сьогодні немає жодного штучного інтелекту, який був би розумним. У нас цього немає. Ми не знаємо, чи буде можливий розумний ШІ. Ніхто не може влучно передбачити, чи досягнемо ми розумного ШІ, ані чи стане розумний ШІ якимось дивом спонтанно виникнути у формі обчислювальної когнітивної наднової (як правило, її називають сингулярністю, див. моє висвітлення на посилання тут).

Тип штучного інтелекту, на якому я зосереджуюсь, складається з нерозумного ШІ, який ми маємо сьогодні. Якби ми хотіли дико спекулювати про розумний ШІ, ця дискусія може піти в кардинально іншому напрямку. Розумний ШІ нібито мав би людську якість. Вам потрібно враховувати, що розумний ШІ є когнітивним еквівалентом людини. Більш того, оскільки деякі припускають, що ми можемо мати надрозумний ШІ, цілком можливо, що такий ШІ може виявитися розумнішим за людей (щодо мого дослідження суперінтелектуального ШІ як можливості див. висвітлення тут).

Давайте зробимо все більш приземленим і розглянемо сьогоднішній обчислювальний нерозумний ШІ.

Зрозумійте, що сучасний AI не здатний «мислити» будь-яким чином нарівні з людським мисленням. Коли ви взаємодієте з Alexa або Siri, розмовні здібності можуть здатися схожими на людські здібності, але реальність така, що вони обчислювальні й позбавлені людського пізнання. Остання ера ШІ широко використовує машинне навчання (ML) і глибоке навчання (DL), які використовують узгодження обчислювальних шаблонів. Це призвело до систем штучного інтелекту, які мають вигляд людських схильностей. Тим часом, сьогодні немає жодного штучного інтелекту, який мав би вигляд здорового глузду і не мав би жодного когнітивного дива міцного людського мислення.

ML/DL є формою узгодження обчислювальних шаблонів. Звичайний підхід полягає в тому, що ви збираєте дані про завдання прийняття рішення. Ви подаєте дані в моделі комп’ютерів ML/DL. Ці моделі прагнуть знайти математичні закономірності. Після виявлення таких закономірностей, якщо вони знайдені, система ШІ використовуватиме ці шаблони під час зустрічі з новими даними. Після представлення нових даних шаблони, засновані на «старих» або історичних даних, застосовуються для прийняття поточного рішення.

Я думаю, ви можете здогадатися, куди це веде. Якщо люди, які приймали рішення за зразком, включали упередження, ймовірно, дані відображають це тонким, але значущим чином. Машинне навчання або глибоке навчання обчислювальний шаблон зіставлення буде просто намагатися математично імітувати дані відповідно. Немає жодної видимості здорового глузду чи інших розумних аспектів моделювання, створеного AI, як такого.

Крім того, розробники ШІ також можуть не усвідомлювати, що відбувається. Таємна математика в ML/DL може ускладнити виявлення прихованих упереджень. Ви по праву сподіваєтесь і очікуєте, що розробники AI перевірять потенційно приховані упередження, хоча це складніше, ніж може здатися. Існує велика ймовірність того, що навіть при відносно обширному тестуванні в моделях зіставлення шаблонів ML/DL все ще будуть упередження.

Ви могли б трохи використати відоме чи сумнозвісне прислів’я «сміття в сміття – виходить». Справа в тому, що це більше схоже на упередження, які підступно вливаються, коли упередження занурюються в ШІ. Алгоритм прийняття рішень (ADM) ШІ аксіоматично стає обтяженим несправедливістю.

Не добре.

Давайте пов’яжемо це з питанням про надійний ШІ

Здається, ми, звичайно, не бажаємо довіряти ШІ, який демонструє несприятливі упередження та дискримінаційні дії. У такому випадку ми вважаємо, що такий ШІ явно не заслуговує довіри, тому ми будемо схилятися до того, щоб активно не довіряти ШІ. Не вдаючись до антропоморфного порівняння (я скажу більше про антропоморфізацію штучного інтелекту за мить), людина, яка демонструє небажані упередження, також підлягатиме рейтингу як неособлива довіра.

Дослідження довіри та надійності

Можливо, нам варто поглянути на те, що ми маємо на увазі, коли стверджуємо, що ми комусь чи чомусь довіряємо чи ні. Спочатку розглянемо кілька повсякденних словникових визначень довіри.

Ось приклади того, що означає довіра:

  • Гарантована довіра до характеру, здібностей, сили чи правди когось чи чогось (онлайн-словник Merriam-Webster).
  • Покладання на цілісність, силу, здатність, поручительство тощо людини чи речі (Dictionary.com)
  • Тверда віра в надійність, правду, здатність або силу когось або чогось (онлайн-словник Оксфордських мов).

Я хотів би зазначити, що всі ці визначення стосуються «когось», а також «щось» як потенційно заслуговує довіри. Це примітно, оскільки дехто може наполягати на тому, що ми довіряємо лише людям і що акт довіри зарезервований виключно для людства як нашої мети надійності. Не так. Ви можете довіряти своєму кухонному тостеру. Якщо здається, що він надійно готує ваш тостер і працює регулярно, щоб це зробити, ви можете напевно мати схожість довіри щодо того, чи тостер справді заслуговує довіри.

З огляду на те ж саме, ШІ також може бути предметом нашої точки зору довіри. Швидше за все, довіра, пов’язана зі штучним інтелектом, буде набагато складнішою, ніж, скажімо, звичайний тостер. Зазвичай тостер може виконувати лише кілька дій. Система штучного інтелекту, ймовірно, буде набагато складнішою і, здається, працює менш прозоро. Наша здатність оцінити та переконатися в надійності штучного інтелекту буде значно складнішою та спричинить певні труднощі.

Окрім того, що типова система штучного інтелекту є складнішою, вона вважається недетермінованою та потенційно саморегульованою або саморегулюючою. Ми можемо коротко дослідити це поняття.

Детермінована машина має тенденцію робити одні й ті самі речі знову і знову, передбачувано та з чітко помітним шаблоном того, як вона працює. Ви можете сказати, що звичайний тостер смажить приблизно так само та має елементи керування, які пом’якшують підсмажування, і всі вони зазвичай передбачувані людиною, яка користується тостером. Навпаки, складні системи штучного інтелекту часто розробляються як недетерміновані, що означає, що вони можуть робити зовсім інші речі, ніж ви могли б очікувати. Це також може бути частково посилено, якщо ШІ буде створено для саморегулювання, аспект, який може вигідно дозволити ШІ покращитися у випадку ML/DL, хоча також може призвести до занепокоєння ШІ або входити в ряди поганого ШІ. Ви можете не знати, що вас спіткало, так би мовити, оскільки дії ШІ застали вас зненацька.

Що ми можемо зробити, щоб спробувати наблизити ШІ до надійності?

Один із підходів полягає в тому, щоб переконатися, що ті, хто розробляє та впроваджує штучний інтелект, дотримуються набору правил етики штучного інтелекту. Як зазначили ці дослідники штучного інтелекту: «Довіра — це ставлення до того, що агент поводитиметься, як очікується, і на нього можна покластися, щоб досягти своєї мети. Довіра руйнується після помилки або непорозуміння між агентом і особою, яка довіряє. Психологічний стан довіри до штучного інтелекту є невід’ємною властивістю складної системи, яка зазвичай включає багато циклів проектування, навчання, розгортання, вимірювання продуктивності, регулювання, перепроектування та перепідготовки» (вказано в Зв'язок ОСББ, «Довіра, регулювання та штучний інтелект людини в циклі в європейському регіоні» Стюарта Міддлтона, Еммануеля Летуза, Алі Хоссаїні та Адріан Чепмен, квітень 2022 р.).

Суть полягає в тому, що якщо ми зможемо змусити розробників штучного інтелекту дотримуватися етичних норм штучного інтелекту, вони, сподіваюся, зрештою створять надійний штучний інтелект. Це все добре, але це здається дещо непрактичним у реальному світі, хоча це безумовно той шлях, який варто йти.

Ось що я маю на увазі.

Припустімо, що розробники штучного інтелекту докладають старанних зусиль, створюючи систему штучного інтелекту для якоїсь мети, яку ми зазвичай називатимемо X. Вони ретельно перевіряють, щоб штучний інтелект дотримувався принципів прозорості етики штучного інтелекту. Вони ретельно стежать за тим, щоб конфіденційність належним чином вбудована в ШІ. Майже для всіх звичайних принципів етики штучного інтелекту розробники штучного інтелекту вичерпно гарантують, що штучний інтелект відповідає заданим вимогам.

Чи варто тепер довіряти цьому ШІ?

Дозвольте мені допомогти зрозуміти ваші думки щодо цього відкритого питання.

Виявилося, що кібер-шахраям вдалося проникнути в ШІ та непомітно змусити ШІ виконувати X, а також передати кібер-хакерам усі дані, які ШІ збирає. Роблячи так, ці лиходії підступно порушують принцип конфіденційності. Ви просто не знаєте, що це відбувається під капотом ШІ.

Додавши цю інформацію, я знову задам вам те саме запитання.

Ви довіряєте цьому ШІ?

Насмілюся сказати, що більшість людей відразу заявили б, що точно так НЕ довіряйте цьому конкретному ШІ. Вони могли повірити раніше. Тепер вони вирішили більше не вважати штучний інтелект надійним.

Кілька ключових ідей, заснованих на цьому простому прикладі, варті уваги:

  • Динаміка довіри. Навіть найкращі наміри охопити всі основи забезпечення того, щоб етика штучного інтелекту була вбудована в систему штучного інтелекту, не є гарантією того, яким штучний інтелект може виявитися чи стати. Після того, як штучний інтелект буде введено в дію, сторонні особи можуть потенційно підірвати накопичення Етичного штучного інтелекту.
  • Підрив довіри зсередини. Акт підриву довіри не обов'язково повинен бути стороннім. Інсайдер, який регулярно обслуговує систему штучного інтелекту, може помилитися та послабити штучний інтелект до того, що він стане менш надійним. Цей розробник ШІ може не знати про те, що вони зробили.
  • Ненавмисні компроміси довіри. Штучний інтелект, який самоналаштовується або саморегулюється, може в якийсь момент пристосуватися і перейти на ненадійну територію. Можливо, штучний інтелект намагається підвищити прозорість штучного інтелекту, але водночас і неналежним чином порушує аспекти конфіденційності.
  • Розсіювання довіри. Спроба досягти всіх принципів етики штучного інтелекту з однаковим вищим ступенем надійності зазвичай не є життєздатною, оскільки вони часто суперечать цілям або мають інші властиві потенційні конфлікти. Це досить ідеалізована перспектива — вірити, що всі етичні принципи штучного інтелекту ідеально узгоджені й усі досяжні в певній однаковій максимальній мірі.
  • Довіра може коштувати дорого. Вартість того, щоб спробувати досягти першокласної подоби надійного штучного інтелекту шляхом виконання різноманітних обширних і вичерпних кроків і дотримання переліку принципів етики ШІ, буде відносно високою. Ви можете легко стверджувати, що витрати були б непомірно високими з точки зору використання деяких систем штучного інтелекту, які в іншому випадку мають важливу цінність для суспільства, навіть якщо штучний інтелект був би менш ніж ідеальним через бажання надійності.
  • І так далі.

Не тлумачіть попередні зауваження неправильно, щоб припустити, що ми повинні якимось чином відвернути спроби ретельно створити та запровадити надійний ШІ. Ви б викинули дитину разом з водою, так би мовити. Правильне тлумачення полягає в тому, що нам дійсно потрібно виконувати ці довірливі дії, щоб залучити ШІ до надійного розгляду, і все ж це саме по собі не є панацеєю чи срібною кулею.

Багатосторонні шляхи до надійного ШІ

Існують важливі додаткові багатосторонні способи прагнути до надійного ШІ.

Наприклад, як я вже писав у своїх колонках, безліч нових законів і нормативних актів, що стосуються штучного інтелекту, мають на меті спонукати виробників штучного інтелекту до розробки надійного ШІ, див. посилання тут та посилання тут.

Ці юридичні огородження мають вирішальне значення як всеосяжний засіб гарантувати, що ті, хто розробляє ШІ, несуть повну відповідальність за свій ШІ. Без таких потенційних засобів правового захисту та законних санкцій ті, хто сміливо просуває штучний інтелект на ринок, швидше за все, продовжуватимуть це робити, не маючи серйозної уваги до досягнення надійного ШІ. Я міг би особливо додати, що якщо ці закони та нормативні акти будуть погано розроблені або неадекватно реалізовані, вони, на жаль, можуть підірвати пошуки надійного ШІ, можливо, за іронією долі та дивним чином сприяючи ненадійному ШІ над надійним ШІ (дивіться обговорення моїх колонок для подальших пояснень).

Я також був рішучим прихильником того, що я палко називав ШІ боти-янголи-охоронці (перегляньте моє висвітлення на посилання тут). Це майбутній метод або підхід до боротьби з вогнем вогнем, а саме використання штучного інтелекту, щоб допомогти нам мати справу з іншим штучним інтелектом, який може бути чи ні надійним.

По-перше, буде корисним деякий фоновий контекст.

Припустімо, ви вирішили покладатися на систему ШІ, у надійності якої ви не впевнені. Ключове занепокоєння може полягати в тому, що ви самотні у своїх спробах з’ясувати, довіряти ШІ чи ні. Штучний інтелект потенційно швидший за вас у обчисленнях і може скористатися вами. Вам потрібен хтось або щось на вашому боці, щоб допомогти.

Одна з точок зору полягає в тому, що завжди має бути людина, яка допоможе вам, коли ви використовуєте систему ШІ. Хоча це проблематичне рішення. Якщо штучний інтелект працює в режимі реального часу, про що ми зараз поговоримо, коли мова заходить про появу безпілотних автомобілів на основі штучного інтелекту, наявності людини в циклі може бути недостатньо. Штучний інтелект може діяти в режимі реального часу, і до того моменту, коли призначена людина в циклі з’явиться в кадрі, щоб з’ясувати, чи ШІ працює належним чином, катастрофічний результат уже міг статися.

Крім того, це викликає ще один фактор довіри. Зазвичай ми призначаємо рівень довіри на основі контексту чи обставин, з якими ми стикаємося. Ви можете повністю довіряти своєму малолітньому сину чи доньці, що вони будуть вірні вам, але якщо ви в поході та вирішите покластися на те, що малюк підкаже вам, чи безпечно ступати на край скелі, я думаю, ви вчините мудро. подумати, чи може дитина дати таку пораду на життя чи смерть. Дитина може робити це серйозно та щиро, але, незважаючи на це, не зможе адекватно дати таку пораду.

Те саме поняття пов’язане з довірою, коли мова йде про ШІ. ШІ-система, яку ви використовуєте для гри в шашки чи шахи, ймовірно, не бере участі в жодних обговореннях життя чи смерті. Ви можете бути спокійнішими з призначенням довіри. Безпілотний автомобіль на основі штучного інтелекту, який мчить шосе на високих швидкостях, потребує значно більшого рівня довіри. Найменший промах системи водіння ШІ може призвести безпосередньо до вашої смерті та смерті інших.

В опублікованому інтерв’ю Біни Амманат, виконавчого директора Global Deloitte AI Institute та автора книги Надійний ШІ, Подібний наголос на розгляді контекстуальних аспектів, де грає роль надійність ШІ: «Якщо ви створюєте рішення ШІ, яке виконує діагностику пацієнтів, справедливість і упередженість є надзвичайно важливими. Але якщо ви створюєте алгоритм, який передбачає відмову реактивного двигуна, справедливість і упередженість не такі важливі. Надійний штучний інтелект – це справді структура, яка допоможе вам почати думати про виміри довіри у вашій організації» (VentureBeat, 22 березня 2022 р.).

Обговорюючи надійний штучний інтелект, ви можете трактувати цю тему багатьма способами.

Наприклад, надійний ШІ це те, що ми всі вважаємо бажаною та бажаною метою, а саме те, що ми повинні прагнути розробити та поширити надійний ШІ. Є й інше використання крилатої фрази. Це дещо альтернативне використання надійний ШІ це стан стану або вимірювання, так що хтось може стверджувати, що вони створили систему ШІ, яка є зразком надійного ШІ. Ви також можете використовувати фразу надійний ШІ запропонувати метод або підхід, який можна використати для досягнення надійності ШІ. тощо

У зв’язку з цим я сподіваюся, що ви усвідомлюєте, що не весь штучний інтелект однаковий і що ми повинні пам’ятати про те, щоб не робити загальних заяв про весь штучний інтелект. Певна система штучного інтелекту, ймовірно, значно відрізнятиметься від іншої системи штучного інтелекту. Одна з цих систем штучного інтелекту може заслуговувати високої довіри, тоді як інша може бути незначною. Будьте обережні, припускаючи, що штучний інтелект є монолітом, якому можна довіряти або зовсім не заслуговувати.

Це просто не так.

Далі я хотів би коротко висвітлити деякі з моїх поточних досліджень щодо надійного штучного інтелекту, які можуть вас зацікавити, охоплюючи зростаючу роль ШІ боти-янголи-охоронці.

Ось як це відбувається.

Ви матимете на озброєнні систему штучного інтелекту (робот-янгол-охоронець штучного інтелекту), який розроблено для оцінки надійності іншої системи штучного інтелекту. ШІ-робот-янгол-охоронець зосереджує увагу на вашій безпеці. Подумайте про це так, ніби у вас є засоби для моніторингу ШІ, на який ви покладаєтеся, маючи іншу систему ШІ у своїй справжній кишені, можливо, запущену на вашому смартфоні чи інших подібних пристроях. Ваш прославлений опікун ШІ може обчислювати на основі того, що ШІ, на який ви покладаєтеся, також працює, працюючи на високих швидкостях і обчислюючи поточну ситуацію в режимі реального часу, набагато швидше, ніж це може зробити людина в циклі.

На перший погляд ви можете подумати, що штучний інтелект, на який ви вже покладаєтеся, повинен щось мати внутрішній Огородження штучного інтелекту, які працюють так само, як цей бот-янгол-охоронець, який окремо обчислює штучний інтелект. Так, цього, звичайно, хотілося б. Одне з сумнівів полягає в тому, що огорожі штучного інтелекту, вбудовані в систему штучного інтелекту, можуть бути цілісно й упереджено узгоджені з штучним інтелектом як таким, тому передбачувана огорожа штучного інтелекту більше не в змозі в певному сенсі незалежно перевіряти чи підтверджувати штучний інтелект.

Контрастна ідея полягає в тому, що ваш бот-янгол-охоронець є незалежним або стороннім механізмом ШІ, який відрізняється від ШІ, на який ви покладаєтеся. Він знаходиться поза іншим ШІ, залишаючись відданим вам, а не відданим ШІ, який контролюється чи оцінюється.

Простий спосіб міркувати про це можна виразити за допомогою наступних спрощених тверджень, схожих на рівняння. Ми могли б сказати, що «P» бажає потенційно довірити «R» виконання конкретного завдання «X»:

Це буде наступне, якщо задіяні лише люди:

  • Особа P довіряє людині R виконання завдання X.

Коли ми вирішуємо покладатися на штучний інтелект, твердження змінюється таким чином:

  • Особа P довіряє AI instance-R виконати завдання X.

Ми можемо додати бота ангела-охоронця, сказавши це:

  • Особа P довіряє екземпляру штучного інтелекту R виконати завдання X під контролем екземпляра бота-охоронця штучного інтелекту Z

Бот-янгол-охоронець штучного інтелекту невтомно й невпинно оцінює ШІ, на який ви покладаєтеся. Таким чином, ваш зручний опікун ШІ може попередити вас, що довіра цього іншого ШІ є невиправданою. Або опікун штучного інтелекту може електронно взаємодіяти з іншим штучним інтелектом, щоб спробувати забезпечити швидке усунення будь-яких відхилень, які не заслуговують на довіру, і так далі (див. моє висвітлення таких деталей на посилання тут).

Метафора надійного резервуару довіри

Оскільки ми обговорюємо різні рівні довіри, ви можете знайти в нагоді зручну метафору про надійність, уявляючи довіру як тип резервуару.

Ви певною мірою довіряєте конкретній особі чи речі за певних обставин у певний момент часу. Рівень довіри зростатиме чи знижуватиметься залежно від того, що ще станеться з цією конкретною особою чи річчю. Довіра може бути на нульовому рівні, якщо у вас немає жодної довіри до людини чи речі. Довіра може бути негативною, якщо ви ризикуєте не довіряти цій людині чи речі.

У випадку систем штучного інтелекту ваш резерв довіри до конкретного штучного інтелекту, на який ви покладаєтеся в певних обставинах, зростатиме чи знижуватиметься залежно від того, як ви оцінюєте надійність штучного інтелекту. Часом ви можете бути добре обізнані про цей різний рівень довіри до ШІ, тоді як в інших випадках ви можете бути менш обізнані, і більше через передчуття, роблячи судження про надійність.

Способи підвищення рівня довіри до ШІ, які ми обговорювали тут, включають:

  • Дотримання етики ШІ. Якщо штучний інтелект, на який ви покладаєтеся, був створений шляхом дотримання належних правил етики штучного інтелекту, ви, імовірно, використали б це розуміння, щоб підвищити рівень довіри до цієї конкретної системи штучного інтелекту. Як примітка, також можливо, що ви можете узагальнити інші системи штучного інтелекту щодо їхньої надійності, хоча це іноді може бути оманливою формою того, що я називаю Поширення аури довіри ШІ (будьте обережні, роблячи це!).
  • Використовуйте Human-In-The-Loop. Якщо ШІ має людину в циклі, ви можете позитивно підвищити свою довіру до ШІ.
  • Встановіть закони та правила. Якщо існують закони та правила, пов’язані з цим типом штучного інтелекту, ви також можете підвищити рівень довіри.
  • Використайте бота ангела-охоронця ШІ. Якщо у вас є готовий бот-янгол-охоронець зі штучним інтелектом, це також підвищить рівень вашої довіри.

Як згадувалося раніше, довіра може бути досить крихкою і розвалитися миттєво (тобто резервуар довіри швидко і раптово втрачає всю створену довіру).

Уявіть, що ви перебуваєте в самокерованій машині на базі штучного інтелекту, і штучний інтелект раптово різко повертає праворуч, спричиняючи пищання коліс і майже змушуючи автономний транспортний засіб небезпечно перекинутися. Що станеться з вашим рівнем довіри? Здавалося б, що навіть якщо раніше ви довіряли штучному інтелекту на високому рівні, ви різко й раптово знизили б свій рівень довіри, що розумно.

На цьому етапі цієї вагомої дискусії я б’юся об заклад, що вам потрібні додаткові ілюстративні приклади, які могли б продемонструвати природу та масштаби надійного ШІ. Є особливий і, безсумнівно, популярний набір прикладів, які мені близькі. Розумієте, у моїй якості експерта з ШІ, включаючи етичні та правові наслідки, мене часто просять визначити реалістичні приклади, які демонструють дилеми етики ШІ, щоб можна було легше зрозуміти дещо теоретичну природу теми. Однією з найбільш яскравих сфер, яка яскраво представляє цю етичну проблему ШІ, є поява справжніх безпілотних автомобілів на основі штучного інтелекту. Це стане зручним варіантом використання або прикладом для широкого обговорення теми.

Тоді ось важливе питання, яке варто обдумати: Чи просвітлює поява справжніх безпілотних автомобілів на основі штучного інтелекту щось про прагнення до надійного ШІ, і якщо так, то що це демонструє?

Дозвольте мені трохи розкрити питання.

По-перше, зауважте, що в справжньому самокерованому автомобілі немає водія-людини. Майте на увазі, що справжні самокеровані автомобілі керуються за допомогою системи водіння AI. Немає потреби в водієві-людині за кермом, а також не передбачено, щоб людина могла керувати транспортним засобом. Для мого широкого й постійного висвітлення автономних транспортних засобів (AV) і особливо самокерованих автомобілів див. посилання тут.

Я хотів би додатково пояснити, що мається на увазі, коли я маю на увазі справжні самокеровані автомобілі.

Розуміння рівнів самокерованих автомобілів

Як уточнення, справжні самокеровані автомобілі - це ті, де ШІ керує автомобілем повністю самостійно, і під час водіння немає жодної допомоги з боку людини.

Ці транспортні засоби без водія вважаються рівнями 4 і 5 (див. моє пояснення на Це посилання тут), в той час як автомобіль, який вимагає, щоб водій-людина спільно керував зусиллям, зазвичай розглядається на рівні 2 або рівня 3. Автомобілі, які спільно виконують завдання водіння, описуються як напівавтономні та зазвичай містять різноманітні автоматизовані надбудови, які називаються ADAS (Advanced Driver-Assist Systems).

На 5-му рівні ще немає справжнього самокерованого автомобіля, і ми ще навіть не знаємо, чи вдасться цього досягти, ані скільки часу знадобиться, щоб дістатися до нього.

Тим часом зусилля рівня 4 поступово намагаються отримати деяку тягу, проходячи дуже вузькі та вибіркові випробування на дорозі, хоча існують суперечки щодо того, чи слід дозволити це тестування як таке (всі ми є піддослідними свинками на життя чи смерть у експерименті дехто стверджує, що відбувається на наших автомагістралях і проїжджих шляхах, див Це посилання тут).

Оскільки для напівавтономних автомобілів потрібен водій людини, прийняття цих типів автомобілів не буде помітно відрізнятися від керування звичайними транспортними засобами, тому на цій темі не так вже й багато нового (хоча, як ви побачите через мить наступні пункти, як правило, застосовуються).

Для напівавтономних автомобілів важливо, щоб громадськість попередила про тривожний аспект, що виникає останнім часом, а саме: незважаючи на тих водіїв, які постійно публікують відеозаписи, засинаючи за кермом автомобіля рівня 2 або 3 рівня , ми всі повинні уникати того, щоб не вводити в оману вірити, що водій може відняти їхню увагу від завдання водіння під час керування напівавтономним автомобілем.

Ви несете відповідальну сторону за рушійні дії транспортного засобу, незалежно від того, наскільки автоматизація може бути перекинута на рівень 2 або 3 рівень.

Безпілотні автомобілі та надійний ШІ

Для справжніх автомобілів рівня 4 та рівня 5, у водінні завдання не буде брати участь людина-водій.

Усі пасажири будуть пасажирами.

AI робить водіння.

Один аспект, який слід негайно обговорити, передбачає той факт, що ШІ, який бере участь у сучасних системах керування ШІ, не є розумним. Іншими словами, ШІ в цілому є колективом комп’ютерного програмування та алгоритмів, і, безперечно, він не в змозі міркувати так само, як це може людина.

Чому цей додатковий акцент на тому, що ШІ не є розумним?

Оскільки я хочу підкреслити, що, обговорюючи роль системи керування ШІ, я не приписую людські якості ШІ. Будь ласка, майте на увазі, що нині існує тривала та небезпечна тенденція до антропоморфізації ШІ. По суті, люди призначають сьогоднішній ШІ схожий на людину розум, незважаючи на незаперечний та беззаперечний факт, що такого ШІ ще не існує.

З цим роз’ясненням ви можете передбачити, що система водіння ШІ не буде якось “знати” про аспекти водіння. Водіння та все, що воно спричиняє, повинні бути запрограмовані як частина апаратного та програмного забезпечення самокерованого автомобіля.

Давайте зануримось у безліч аспектів, які виникають на цю тему.

По-перше, важливо усвідомити, що не всі самокеровані автомобілі з штучним інтелектом однакові. Кожен виробник автомобілів і технологічна фірма, що займаються самокеруванням, використовують свій підхід до розробки самокерованих автомобілів. Таким чином, важко робити розгорнуті заяви про те, що будуть робити, а що не робитимуть системи керування ШІ.

Крім того, щоразу, коли заявляють, що система керування штучним інтелектом не робить якоїсь конкретної речі, це згодом може бути обігнате розробниками, які насправді програмують комп’ютер на таку саму річ. Поступово системи керування ШІ поступово вдосконалюються та розширюються. Існуюче сьогодні обмеження може більше не існувати в майбутній ітерації або версії системи.

Я сподіваюся, що це дає достатню кількість застережень, щоб підтвердити те, про що я збираюся розповісти.

Зараз ми готові глибоко зануритися в безпілотні автомобілі та надійний штучний інтелект.

Довіра — це все, особливо у випадку безпілотних автомобілів на основі ШІ.

Суспільство, схоже, насторожено дивиться на появу безпілотних автомобілів. З одного боку, є велика надія, що поява справжніх безпілотних автомобілів помітно зменшить щорічну кількість смертельних випадків, пов’язаних з автомобілем. Лише в Сполучених Штатах щорічно реєструється близько 40,000 2.5 смертей і приблизно XNUMX мільйона травм внаслідок автомобільних аварій, перегляньте мою колекцію статистики на посилання тут. Люди п'ють за кермом. Люди керують автомобілем, відволікаючись. Завдання керування автомобілем, здається, полягає в здатності постійно й безпомилково зосереджуватися на водінні та уникати потрапляння в автокатастрофу. Таким чином, ми можемо мріяти, що системи водіння штучного інтелекту керуватимуть безпілотними автомобілями постійно й безпомилково. Ви можете розглядати безпілотні автомобілі як дві переваги, що складаються зі зменшення кількості смертей і травм у ДТП, а також потенційного забезпечення доступності мобільності на набагато ширшій та доступній основі.

Але тим часом занепокоєння нависає над уявленнями суспільства щодо того, чи будуть безпілотні автомобілі достатньо безпечними, щоб пересуватися на наших дорогах загального користування.

Якщо хоча б один безпілотний автомобіль потрапить у аварію чи зіткнення, що призведе до однієї смерті чи важкої травми, ви, ймовірно, можете передбачити, що сьогодні певна довіра до цих безпілотних автомобілів на основі штучного інтелекту стрімко впаде. Ми бачили, як це сталося, коли в Арізоні стався сумнозвісний інцидент, у якому дещо (не зовсім) самокерований автомобіль наїхав на пішохода та вбив його (див. мій репортаж на Це посилання тут).

Деякі експерти зазначають, що несправедливо й недоречно базувати довіру до безпілотних автомобілів зі штучним інтелектом на тому, що лише одна така наступна смертельна аварія чи зіткнення може підірвати і без того відносно вільні від аварій випробування на громадських дорогах. Крім того, на ще несправедливій основі існує ймовірність того, що незалежно від того, яка конкретна марка або модель безпілотного автомобіля зі штучним інтелектом стане втягненою в сумний інцидент, суспільство, безсумнівно, звинуватить усі марки безпілотних автомобілів.

Усі безпілотні автомобілі можуть бути знищені, а галузь загалом може зазнати величезної негативної реакції, що призведе до можливого припинення всіх випробувань на громадських дорогах.

Причиною такого удару є безглузді заяви відвертих прихильників безпілотних автомобілів про те, що всі безпілотні автомобілі не розб’ються. Ця ідея про те, що неможливо розбитися, є не тільки відверто неправильною (див посилання тут), він підступно налаштовує індустрію безпілотних автомобілів на абсолютно незрозумілі очікування. Ці дивовижні та нездійсненні заяви про те, що в результаті безпілотних автомобілів буде нуль смертей, підживлюють помилкове уявлення про те, що будь-які аварії без водіїв є вірною ознакою того, що весь набір і шахрайство марні.

З певним сумом усвідомлювати, що розвиток безпілотних автомобілів і поступове накопичення суспільної довіри можуть бути зруйновані миттєво. Це буде чудова демонстрація крихкості довіри.

Висновок

Багато автовиробників і технологічних компаній, що займаються безпілотним керуванням, загалом дотримуються принципів етики штучного інтелекту, роблячи це, щоб створити надійний ШІ з точки зору безпечних і надійних безпілотних автомобілів на основі ШІ. Будь ласка, зрозумійте, що деякі з цих фірм є сильнішими та більш відданими принципам етики ШІ, ніж інші. Існують також випадкові стартапи або новачки, пов’язані з безпілотними автомобілями, які, здається, відкидають більшість наріжних каменів етики ШІ (див. мій огляд на посилання тут).

На інших фронтах нові закони та правила, що стосуються безпілотних автомобілів, поступово потрапляють в юридичні книги. Інша справа, чи є у них необхідні зуби, щоб підтримувати їх, так само як і те, чи дотримання цих законів сприймається серйозно чи ігнорується (аналіз цього питання див. у моїх колонках).

У цьому також є кут високих технологій. Я передбачив, що ми поступово побачимо варіанти ботів-янголів-охоронців зі штучним інтелектом, які вийдуть на перший план на арені автономних транспортних засобів і безпілотних автомобілів. Ми ще не там. Це стане більш поширеним, коли популярність безпілотних автомобілів стане більш поширеною.

Цей останній пункт приводить до відомої фрази про довіру, яку ви, безсумнівно, знаєте напам’ять.

Довіряй, але перевіряй.

Ми можемо дозволити собі висловити свою довіру, можливо, щедро. Водночас ми також повинні стежити, як яструб, щоб переконатися, що довіра, яку ми породжуємо, підтверджується як словами, так і вчинками. Давайте трохи довіримо ШІ, але нескінченно перевіряємо, що ми довіряємо належним чином і з широко відкритими очима.

Ви можете мені довіряти це.

Джерело: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/