Етика штучного інтелекту обурюється розвитком синдрому гарячої картоплі, який використовується виробниками штучного інтелекту, які, здається, намагаються уникнути відповідальності за свої життєво важливі автономні системи

Ми всі знаємо, що ви повинні переконатися, що ви не закінчите з гарячою картоплею.

Схоже, що гамбіт із гарячою картоплею сягає свого коріння принаймні до кінця 1800-х років, коли кімнатна гра із запаленими свічками начебто зрушила з місця. Зазвичай люди сиділи на ряді дерев’яних стільців, розташованих відносно поруч один з одним, і грали в захоплюючу гру в ту епоху. Гравці передавали запалену свічку від людини до людини, і вона символізувала те, що ми пізніше назвали передачею гаряча картопля.

Був звичай, що кожна особа повинна була вимовити вголос популярну риму, перш ніж вона зможе передати свічку, що поступово палає. Вочевидь, рима виглядала так:

«Джек живий і, ймовірно, виживе;

Якщо він помре у твоїй руці, то ти будеш втрачений».

Цей римований концерт, імовірно, дасть свічці трохи часу, щоб продовжити горіти до кінця. Той, хто застряг зі свічкою в своєму розпорядженні після природного згасання в кінці, був особою, яка програла матч (каламбур!).

Відповідно до слів, зазначених у віршику, програв повинен був заплатити «неустойку» і, таким чином, зазвичай мав вийти з будь-якого подальшого раунду гри. Тоді це можна було б поєднати з тим, що ми сьогодні вважаємо повсякденними музичними стільцями, таким чином, щоб особа, яка програла раунд, більше не брала участі в наступних раундах (як ніби музика припинилася, і вони не змогли отримати вільне місце). Зрештою, залишилося лише двоє людей, які передали запалену свічку та сказали риму, доки остаточний переможець не визначався під час остаточного гасіння.

Можливо, ви дивуєтеся, чому ми більше не граємо в цю гру із запаленою свічкою і чому натомість ми зазвичай називаємо це гарячою картоплею, а не зображуємо це схемою «запалена свічка». Дослідники висунули багато теорій про те, як це поступово сталося. Історія здається туманною та невизначеною щодо розвитку подій у цьому питанні. Я вважаю, що ми можемо відчути полегшення, оскільки запалені свічки зазвичай не використовуються таким чином, оскільки ймовірність того, що щось піде відчутно не так, здається надзвичайно тривожною (хтось впустив свічку та розпалив вогонь, або хтось обпікся свічкою, коли її простягнули). від іншого гравця тощо).

З точки зору гарячої картоплі як потенційної заміни запаленої свічки, можна загалом стверджувати, що картопля в цілому буде дещо безпечнішою. Без відкритого вогню. Без плавлення воску. Потенційна основа для використання картоплі в цьому контексті полягає в тому, що вона, як відомо, легко утримує тепло після того, як її розігріли. Ви можете перекинути картоплю, і вона деякий час залишиться гарячою. Можна припустити, що рішення про те, коли гаряча картопля більше не є гарячою, а натомість оцінюється як холодна, було б гостро дискусійною пропозицією.

Звичайно, сьогодні поняття «гаряча картопля» є більш окремим. Усе, що оцінюється чи класифікується як гаряча картопля, зазвичай має щиру якість. Ви ж не хочете тримати в руках гарячу картоплю. Ви хочете переконатися, що він піде в інше місце. Певною мірою ви можете не надто турбуватися про те, куди він подівся, просто він більше не у вашому розпорядженні.

Здавалося б, ви досить черстві, якщо б передали гарячу картоплину дорогому другові чи подібному знайомому. Це здавалося б абсолютно ненормальним. Можливо, знайдіть когось іншого або десь ще, щоб покласти цю гарячу картоплю, якщо ви можете це зробити. Відчайдушним кроком може бути нав’язати гарячу картоплю привітному колезі, але, сподіваюся, це робиться лише в крайньому випадку.

Інша сторона цієї медалі полягає в тому, що ви можете отримати задоволення від того, щоб дати гарячу картоплю тому, хто вам не подобається або кому ви хочете помститися. Звичайно, гаряча картопля може бути дуже зручною, якщо ви прагнете підірвати людину, яка погано з вами поводилася. Нехай придумають, що робити з гарячою картоплею. Гарного позбавлення від картоплі та найгіршої удачі людині, з якою ви її позначили.

У сценарії «гарячої картоплі», де беруть участь лише дві людини, існує ймовірність швидкої суперечки щодо того, хто тримає неприємний і небажаний предмет. Наприклад, я передаю тобі гарячу картоплину, а ти поспішно повертаєш її мені. Якщо припустити, що нам не потрібно оголошувати дитячу пісню між кожною передачею, ми можемо просто передати картоплину настільки швидко, наскільки це дозволяють наші руки.

Вам може бути цікаво, чому я вирішив глибоко зануритися в шановану та часто цитовану гарячу картоплю.

Ось чому.

Виявилося, що «гаряча картопля» все частіше використовується у сфері штучного інтелекту (ШІ).

Більшість людей про це нічого не знає. Вони ніколи про це не чули. Вони абсолютно не усвідомлюють, що це таке. Навіть багато розробників ШІ не знають про це. Тим не менш, він існує і, здається, використовується в дійсно сумнівних ситуаціях, особливо у випадках, пов’язаних із обставинами життя чи смерті.

Я називаю це " AI Синдром гарячої картоплі.

В основі цього синдрому лежить багато серйозних наслідків, і ми повинні переконатися, що ми встановлюємо наші принципи етики ШІ та обмірковуємо, що слід робити. Існують протверезуючі етичні міркування. Неодмінно також виникнуть помітні юридичні наслідки (які ще не досягли суспільної видимості, хоча я прогнозую, що незабаром вони будуть). Щодо мого поточного та широкого висвітлення питань етики штучного інтелекту, етичного штучного інтелекту та правових питань штучного інтелекту див. посилання тут та посилання тут, просто назвемо декілька.

Давайте розпакуємо AI Синдром гарячої картоплі.

Уявіть собі систему ШІ, яка працює спільно з людиною. Штучний інтелект і людина передають контроль над певною поточною діяльністю, так що інколи керує людина, а інколи – ШІ. Спочатку це можна зробити, скажімо так, вихованим або розумним способом. З різних причин, про які ми зараз поговоримо, штучний інтелект може обчислювальним шляхом переконатися, що керування потрібно терміново передати людині.

Це гаряча картопля що ставить під загрозу життя в реальному світі, а не просто повчальною дитячою грою.

Проблема поспішної передачі контролю від штучного інтелекту людині полягає в тому, що це можна зробити розумним способом або можна зробити досить нерозумним способом. Якщо людина особливо не очікує передачі, це, швидше за все, проблема. Якщо людина загалом погоджується з передачею контролю, обставини, що лежать в основі передачі, можуть лякати, якщо людині не дають достатньо часу або недостатньо усвідомлюють, чому контроль насильно передається в її людські руки.

Ми досліджуватимемо приклади того, як це може створювати небезпеку для життя чи смерті для людини та, можливо, інших людей поблизу. Це серйозна річ. Крапка, крапка.

Перш ніж перейти до більш м’ясних аспектів диких і шерстистих міркувань, що лежать в основі AI Синдром гарячої картоплі, давайте викладемо деякі додаткові основи щодо дуже важливих тем. Нам потрібно ненадовго зануритися в етику штучного інтелекту, особливо в появу машинного навчання (ML) і глибокого навчання (DL).

Можливо, ви смутно усвідомлюєте, що сьогодні одним із найгучніших голосів у сфері штучного інтелекту та навіть поза його межами є вимоги до більшої схожості етичного AI. Давайте подивимося, що означає посилання на етику штучного інтелекту та етичний AI. Крім того, ми розглянемо, що я маю на увазі, коли говорю про машинне навчання та глибоке навчання.

Один окремий сегмент або частина етики AI, який привертає велику увагу ЗМІ, складається з AI, який демонструє несприятливі упередження та несправедливість. Ви, напевно, знаєте, що коли почалася остання ера штучного інтелекту, виник величезний сплеск ентузіазму щодо того, що дехто зараз називає ШІ для добра. На жаль, після цього хвилювання ми стали свідками ШІ для поганого. Наприклад, було виявлено, що різні системи розпізнавання обличчя на основі штучного інтелекту містять расові та гендерні упередження, які я обговорював на посилання тут.

Зусилля протистояти ШІ для поганого активно ведуться. До того ж крикливий правової прагнення приборкати протиправні дії, є також істотний поштовх до прийняття Етики ШІ, щоб виправити підлість ШІ. Ідея полягає в тому, що ми повинні прийняти та схвалити ключові етичні принципи ШІ для розробки та впровадження ШІ, роблячи це, щоб підірвати ШІ для поганого і водночас проголошуючи та пропагуючи переваги ШІ для добра.

Що стосується пов’язаної думки, то я прихильник спроб використання штучного інтелекту як частини вирішення проблем, пов’язаних із штучним інтелектом, боротися з вогнем у такий спосіб мислення. Наприклад, ми можемо вбудувати етичні компоненти штучного інтелекту в систему штучного інтелекту, яка буде відстежувати, як решта штучного інтелекту робить речі, і, таким чином, потенційно ловити в режимі реального часу будь-які дискримінаційні зусилля, див. моє обговорення на посилання тут. Ми також могли б мати окрему систему штучного інтелекту, яка діятиме як тип монітора етики AI. Система ШІ служить наглядачем, щоб відстежувати та виявляти, коли інший ШІ потрапляє в неетичну прірву (див. мій аналіз таких можливостей на посилання тут).

Через деякий час я поділюся з вами деякими загальними принципами, що лежать в основі етики ШІ. Подібних списків тут і там плаває багато. Можна сказати, що поки що не існує єдиного списку універсальної привабливості та збігу. Ось така сумна новина. Хороша новина полягає в тому, що принаймні є легкодоступні списки етики AI, і вони, як правило, дуже схожі. Все це говорить про те, що завдяки певній формі аргументованої конвергенції ми знаходимо шлях до загальної спільності того, з чого складається етика ШІ.

По-перше, давайте коротко розглянемо деякі загальні правила етичного штучного інтелекту, щоб проілюструвати, що має бути життєво важливим для тих, хто створює, використовує або використовує AI.

Наприклад, як стверджує Ватикан в Рим закликає до етики ШІ і як я детально розглянув на посилання тут, вони визначили шість основних принципів етики ШІ:

  • Прозорість: В принципі, системи штучного інтелекту повинні бути поясненими
  • Включення: Необхідно враховувати потреби всіх людей, щоб кожен міг отримати вигоду, а всім людям могли бути запропоновані найкращі умови для самовираження та розвитку.
  • Відповідальність: Ті, хто розробляє та впроваджує використання ШІ, повинні діяти відповідально та прозоро
  • Неупередженість: Не творіть і не дійте відповідно до упередженості, захищаючи таким чином справедливість і людську гідність
  • Надійність: Системи AI повинні працювати надійно
  • Безпека та конфіденційність: Системи AI повинні працювати безпечно та поважати конфіденційність користувачів.

Про це йдеться в заяві міністерства оборони США (DoD). Етичні принципи використання штучного інтелекту і як я детально розглянув на посилання тут, це їх шість основних принципів етики ШІ:

  • Відповідальний: Персонал Міністерства оборони буде проявляти належний рівень розсудливості та уважності, залишаючись відповідальним за розробку, розгортання та використання можливостей штучного інтелекту.
  • Справедливий: Департамент вживатиме свідомих заходів, щоб мінімізувати ненавмисне упередження в можливостях ШІ.
  • Відстежується: Можливості Департаменту в галузі штучного інтелекту будуть розроблені та розгорнуті таким чином, щоб відповідний персонал володів належним розумінням технології, процесів розробки та операційних методів, застосовних до можливостей штучного інтелекту, включаючи прозорі та піддані аудиту методології, джерела даних, а також процедуру та документацію проектування.
  • надійність: Можливості Департаменту штучного інтелекту будуть мати чітке, чітко визначене використання, а безпека, безпека та ефективність таких можливостей будуть підлягати тестуванню та гарантії в межах цих визначених видів використання протягом усього їхнього життєвого циклу.
  • Керований: Департамент буде розробляти та розробляти можливості штучного інтелекту для виконання своїх призначених функцій, маючи при цьому здатність виявляти й уникати непередбачених наслідків, а також здатність відключати або деактивувати розгорнуті системи, які демонструють ненавмисне поведінку.

Я також обговорював різноманітні колективні аналізи принципів етики ШІ, у тому числі охоплюючи набір, розроблений дослідниками, який розглянув і стиснув суть численних національних і міжнародних принципів етики ШІ в статті під назвою «Глобальний ландшафт етичних принципів ШІ» (опублікований в природа), і що моє висвітлення досліджується на посилання тут, що призвело до цього списку ключових каменів:

  • прозорість
  • Справедливість і справедливість
  • Незлочинність
  • Відповідальність
  • Конфіденційність
  • Вигода
  • Свобода і автономія
  • Довіряйте
  • Sustainability
  • Гідність
  • Солідарність

Як ви можете прямо здогадатися, спробувати визначити особливості, що лежать в основі цих принципів, може бути надзвичайно важко зробити. Більше того, спроба перетворити ці загальні принципи на щось цілком відчутне і досить детальне, щоб використовувати його при створенні систем штучного інтелекту, також є міцним горіхом. Загалом легко пояснити, що таке заповіді етики штучного інтелекту та як їх слід дотримуватись, в той час як набагато складніша ситуація в кодуванні AI — це справжня гумка, яка зустрічає дорогу.

Принципи етики штучного інтелекту мають використовуватися розробниками штучного інтелекту, а також тими, хто керує розробкою штучного інтелекту, і навіть тими, хто в кінцевому підсумку займається технічним обслуговуванням систем ШІ. Усі зацікавлені сторони протягом усього життєвого циклу розробки та використання ШІ розглядаються в рамках дотримання встановлених норм етичного ШІ. Це важливий момент, оскільки звичайне припущення полягає в тому, що «лише кодери» або ті, хто програмує ШІ, підлягають дотриманню концепцій етики ШІ. Як було сказано раніше, для розробки та застосування штучного інтелекту потрібне село, і для цього все село має бути обізнаним і дотримуватися правил етики ШІ.

Давайте також переконаємося, що ми на одній сторінці щодо природи сьогоднішнього ШІ.

Сьогодні немає жодного штучного інтелекту, який був би розумним. У нас цього немає. Ми не знаємо, чи буде можливий розумний ШІ. Ніхто не може влучно передбачити, чи досягнемо ми розумного ШІ, ані чи стане розумний ШІ якимось дивом спонтанно виникнути у формі обчислювальної когнітивної наднової (як правило, її називають сингулярністю, див. моє висвітлення на посилання тут).

Тип штучного інтелекту, на якому я зосереджуюсь, складається з нерозумного ШІ, який ми маємо сьогодні. Якби ми хотіли дико спекулювати про розумний ШІ, ця дискусія може піти в кардинально іншому напрямку. Розумний ШІ нібито мав би людську якість. Вам потрібно враховувати, що розумний ШІ є когнітивним еквівалентом людини. Більш того, оскільки деякі припускають, що ми можемо мати надрозумний ШІ, цілком можливо, що такий ШІ може виявитися розумнішим за людей (щодо мого дослідження суперінтелектуального ШІ як можливості див. висвітлення тут).

Давайте зробимо все більш приземленим і розглянемо сьогоднішній обчислювальний нерозумний ШІ.

Зрозумійте, що сучасний AI не здатний «мислити» будь-яким чином нарівні з людським мисленням. Коли ви взаємодієте з Alexa або Siri, розмовні здібності можуть здатися схожими на людські здібності, але реальність така, що вони обчислювальні й позбавлені людського пізнання. Остання ера ШІ широко використовує машинне навчання (ML) і глибоке навчання (DL), які використовують узгодження обчислювальних шаблонів. Це призвело до систем штучного інтелекту, які мають вигляд людських схильностей. Тим часом, сьогодні немає жодного штучного інтелекту, який мав би вигляд здорового глузду і не мав би жодного когнітивного дива міцного людського мислення.

ML/DL є формою узгодження обчислювальних шаблонів. Звичайний підхід полягає в тому, що ви збираєте дані про завдання прийняття рішення. Ви подаєте дані в моделі комп’ютерів ML/DL. Ці моделі прагнуть знайти математичні закономірності. Після виявлення таких закономірностей, якщо вони знайдені, система ШІ використовуватиме ці шаблони під час зустрічі з новими даними. Після представлення нових даних шаблони, засновані на «старих» або історичних даних, застосовуються для прийняття поточного рішення.

Я думаю, ви можете здогадатися, куди це веде. Якщо люди, які приймали рішення за зразком, включали упередження, ймовірно, дані відображають це тонким, але значущим чином. Машинне навчання або глибоке навчання обчислювальний шаблон зіставлення буде просто намагатися математично імітувати дані відповідно. Немає жодної видимості здорового глузду чи інших розумних аспектів моделювання, створеного AI, як такого.

Крім того, розробники ШІ також можуть не усвідомлювати, що відбувається. Таємна математика в ML/DL може ускладнити виявлення прихованих упереджень. Ви по праву сподіваєтесь і очікуєте, що розробники AI перевірять потенційно приховані упередження, хоча це складніше, ніж може здатися. Існує велика ймовірність того, що навіть при відносно обширному тестуванні в моделях зіставлення шаблонів ML/DL все ще будуть упередження.

Ви могли б трохи використати відоме чи сумнозвісне прислів’я «сміття в сміття – виходить». Справа в тому, що це більше схоже на упередження, які підступно вливаються, коли упередження занурюються в ШІ. Алгоритм прийняття рішень (ADM) ШІ аксіоматично стає обтяженим несправедливістю.

Не добре.

Давайте повернемося до нашої уваги до гарячої картоплі та її потенційно згубного використання в ШІ. Існує також дияволство, яке також може ховатися в підступі з гарячою картоплею.

Як короткий підсумок про прояв ШІ гамбіту з гарячою картоплею:

  • ШІ та людина в циклі спільно працюють над заданим завданням
  • Деякий час ШІ контролює
  • Людина в циклі контролює деякий час
  • Існує певна форма протоколу передачі між ШІ та людиною
  • Передача може бути добре помітною або може бути непомітною та майже прихованою
  • Це все зазвичай у контексті реального часу (щось активно триває)

Основна увага тут полягає в тому, що передача – це, по суті, гаряча картопля, і ШІ вирішує раптово передати управління людині. Будь ласка, зверніть увагу, що пізніше я також розгляну інший аспект, а саме передачу управління людиною штучному інтелекту як гарячу картоплю.

По-перше, подумайте про те, що може статися, коли штучний інтелект передає «гарячу картоплю» людині в циклі.

Я буду називати людину людиною в циклі, тому що я кажу, що людина вже є невід’ємною частиною поточної робочої діяльності. У нас можуть бути й інші сценарії, коли штучний інтелект передає гарячу картоплю людині, яка не брала особливої ​​участі в цій діяльності, можливо, незнайомій із цілою справою, тому майте на увазі, що існують інші смаки цього середовища.

Якби я передавав вам гарячу картоплю і хотів зробити це розумно, можливо, я б попередив вас, що збираюся передати вам речі. Більше того, я б спробував це зробити, якби щиро вірив, що володіння гарячою картоплею у вас було б кращим, ніж у мене. Я б подумки порахував, чи варто це мати тобі, чи я маю це продовжувати.

Уявіть собі гру в баскетбол. Ми з тобою в одній команді. Сподіваюся, ми працюємо разом, щоб спробувати виграти гру. На годиннику залишилося всього кілька секунд, і нам дуже потрібно забити, інакше ми програємо гру. Я займаю позицію, щоб зробити останній удар. Мені це зробити, чи я маю передати м’яч тобі, а ти зробиш останній удар?

Якщо я кращий баскетболіст і маю більше шансів забити кидок, я, мабуть, повинен тримати баскетбольний м’яч і намагатися зробити кидок. Якщо ти кращий баскетболіст, ніж я, я, ймовірно, повинен передати тобі м’яч і дозволити тобі виконати удар. Інші міркування виходять на перший план, наприклад, хто з нас займає кращу позицію на майданчику, щоб виконати кидок, а також чи хтось із нас виснажений, оскільки гра майже закінчилась і може бути виснаженим і невідповідним їх розстріл. тощо

З огляду на всі ці фактори в розпал важкого моменту, мені потрібно вирішити, залишити м’яч чи передати його тобі.

Чітко усвідомлюйте, що в цьому сценарії годинник має вирішальне значення. Ви і я стикаємося з надзвичайно своєчасною відповіддю. Вся гра зараз на кону. Коли годинник закінчується, ми або виграли, тому що хтось із нас зробив удар, або програли, оскільки не потопили його. Можливо, я міг би стати героєм, якщо потоплю кошик. Або ти можеш стати героєм, якщо я передам тобі м’яч, а ти його потопиш.

У цьому також є сторона кози або недоліки. Якщо я буду тримати м’яч і промахнусь, усі можуть звинуватити мене в тому, що я козла або підвів всю команду. З іншого боку, якщо я передаю тобі м’яч, а ти промахнешся, ти станеш козлом. Це може бути абсолютно несправедливим щодо вас, оскільки я змусив вас бути останнім стрільцем і зробити останній постріл.

Ви б точно знали, що я поставив вас у таке неприємне становище. І хоча всі могли бачити, як я це роблю, вони змушені зосереджуватися лише на тому, хто останнім володів м’ячем. Можливо, я б катався безкоштовно. Ніхто не згадає, що я передав тобі м'яч в останню мить. Вони запам’ятали б лише те, що ти мав м’яч і програв гру, тому що ти не завдав удару.

Гаразд, я передаю м’яч тобі.

Чому я так вчинив?

Немає простого способу визначити це.

Моїми справжніми намірами могло бути те, що я не хотів залишатися козлом, тому я вирішив скласти весь тиск на вас. Коли мене запитали, чому я передав м’яч, я міг би сказати, що зробив це тому, що вважав, що ти кращий стрілок, ніж я (але давайте удамо, що я в це зовсім не вірю). Або я думав, що ви перебуваєте у кращому становищі, ніж я (давайте вдамо, що я теж цього не думав). Ніхто ніколи не дізнається, що я насправді просто намагався не застрягти з гарячою картоплею.

Ззовні ніхто не зрозумів, чому я передав м’яч тобі. Можливо, я зробив це невинно, бо вважав, що ти кращий гравець. Це один кут. Можливо, я зробив це тому, що не хотів, щоб усі називали мене невдахою через можливий промах, тому я передав м’яч тобі і вирішив, що це було для мене величезним полегшенням. Зовсім інша справа, чи я справді піклувався про вас.

Тепер ми можемо додати деякі додаткові деталі до гарячої картоплі, пов’язаної зі ШІ:

  • В останній момент штучний інтелект вирішує передати керування людині в циклі
  • Останній момент може вже вийти за межі будь-яких людських життєздатних дій
  • Людина в циклі контролює, але дещо помилково через час передачі

Подумайте над цим на мить.

Припустімо, що система штучного інтелекту та людина в циклі працюють разом над завданням у реальному часі, яке включає роботу великомасштабної машини на заводі. Штучний інтелект виявляє, що механізми йдуть з ладу. Замість того, щоб ШІ продовжував утримувати контроль, ШІ різко передає управління людині. Обладнання на цій фабриці швидко рухається до повного хаосу, і у людей не залишається часу, щоб вжити заходів для виправлення.

Штучний інтелект передав гарячу картоплину людині в петлі та затиснув людину справжньою гарячою картоплиною так, що людські обставини більше не можуть впоратися. Тег, ти це, користується старою лінією, граючи в ігри з мітками в дитинстві. Людина, скажімо так, помічена безладом.

Так само, як мій приклад про баскетбольну гру.

Чому штучний інтелект зробив передачу?

Що ж, на відміну від того, коли людина раптово передає баскетбольний м’яч, а потім махає рукою, пояснюючи, чому вона це зробила, зазвичай ми можемо перевірити програмування штучного інтелекту та з’ясувати, що спонукало штучний інтелект до такої передачі гарячої картоплі.

Розробник штучного інтелекту міг би заздалегідь вирішити, що коли штучний інтелект потрапляє в дуже скрутне становище, він повинен продовжувати передавати контроль людині в циклі. Це здається цілком розумним і розумним. Людина може бути «кращим гравцем» на полі. Люди можуть використовувати свої когнітивні здібності, щоб потенційно вирішити будь-яку проблему. Можливо, штучний інтелект досяг межі свого програмування, і в цій ситуації він не може зробити нічого конструктивного.

Якби штучний інтелект виконав передачу за хвилину до завершення роботи механізму, можливо, хвилини хедз-апу достатньо, щоб людина в циклі могла виправити ситуацію. Припустімо, однак, що штучний інтелект зробив передачу за три секунди до кінця. Як ви думаєте, чи зможе людина відреагувати за цей час? Малоймовірно. У будь-якому випадку, щоб зробити речі ще меншими придирками, припустімо, що передача до людини в циклі відбулася за кілька наносекунд до завершення (наносекунда — це одна мільярдна секунди, що для порівняння швидке миготіння око мляве 300 мілісекунд).

Чи зможе людина в циклі належним чином відреагувати, якщо штучний інтелект передав гарячу картоплю за лічені секунди, щоб виконати будь-які дії?

Ні.

Передача є більшою мірою брехнею, ніж це може здатися інакше.

Насправді передача нічого не принесе, коли справа доходить до жахливої ​​ситуації. ШІ перетворив людину на козла.

Деякі розробники ШІ не думають про це, коли розробляють свій ШІ. Вони (неправильно) блаженно не беруть до уваги, що час є вирішальним фактором. Усе, що вони роблять, це запрограмувати передачу, коли справи стають важкими. Коли штучному інтелекту не залишиться нічого робити конструктивно, киньте м’яч людині-гравцю.

Розробники штучного інтелекту можуть не подумати про це під час кодування штучного інтелекту, і потім вони часто зазнають подвійної невдачі, не вдаючись до тестування, яке висвітлює це. Усе, що показало їхнє тестування, це те, що ШІ «сумлінно» виконав передачу, коли були досягнуті межі ШІ. Вуаля, ШІ вважається хорошим і готовим до роботи. Тестування не включало реальну людину, яка була поставлена ​​в таке незавидне та неможливе становище. Не було належного процесу тестування за допомогою людини в циклі, який міг би заперечити, що ця передача в останню мить, або навіть після останньої миті, не принесла їм користі або не принесла нічого.

Звичайно, деякі розробники штучного інтелекту сприймуть цей тип скрутного становища, і це буде розумно.

Обміркувавши головоломку, вони все одно запрограмують ШІ діяти таким чином.

Чому?

Тому що більше нічого робити, принаймні в їхньому розумі. Коли нічого не допомагає, передайте керування людині. Можливо, станеться диво. Але суть полягає в тому, що це не хвилює розробників штучного інтелекту, і вони дають людині останній шанс впоратися з безладом. Розробник штучного інтелекту вмиває руки від того, що станеться після цього.

Я хочу пояснити, що розробники штучного інтелекту не є єдиними розробниками цих гарячих дизайнів. Існує безліч інших зацікавлених сторін, які беруть участь у цьому. Можливо, системний аналітик, який проводив аналіз специфікацій і вимог, заявив, що це те, що повинен робити ШІ. Залучені розробники ШІ створили ШІ відповідно. Можливо, це придумав керівник проекту ШІ. Керівництво та керівництво, які контролюють розробку штучного інтелекту, могли це придумати.

Кожен протягом усього життєвого циклу розробки штучного інтелекту міг продовжувати цей самий дизайн гарячої картоплі. Чи хтось це помітив, точно сказати не можемо. Якби вони помітили, їх могли б позначити як скептиків і відкинути в сторону. Інші могли б звернути увагу на це питання, але вони не усвідомлювали наслідків. Вони вважали, що це технічні дрібниці, які не входили в їхню компетенцію.

Я додам до цього неофіційного списку «причин» набагато більш мерзенну можливість.

Синдром гарячої картоплі ШІ іноді використовується навмисно, тому що ті, хто створює ШІ, хотіли мати свою пристрасну заяву про правдоподібне заперечення.

Будьте готові до цієї частини казки.

У випадку заводського обладнання, яке вийшло з ладу, обов’язково буде багато вказувати пальцем на те, хто відповідальний за те, що сталося. Що стосується керування механізмами, у нас була система штучного інтелекту, яка робила це, і у нас була людина в циклі, яка робила це. Це два наших баскетболіста, метафорично.

Годинник скорочувався, і техніка була на межі виходу з ладу. Скажімо, ми з вами знаємо, що штучний інтелект передав людині-в-петлі, зробивши це, не маючи достатньо часу, щоб людина вжила будь-яких необхідних дій, щоб усунути або уникнути катастрофи. Ніхто інший не розуміє, що це сталося.

Фірма, яка виробляє штучний інтелект, у будь-якому випадку може негайно заявити, що вони не винні, оскільки людина контролювала ситуацію. Згідно з їхніми бездоганними записами, штучний інтелект не керував ситуацією під час кабуму. Людина була. Тому, очевидно, очевидно, що винна людина.

Чи компанія ШІ бреше, коли робить це відверте твердження?

Ні, здається, вони кажуть правду.

Коли їх запитали, чи впевнені вони, що штучний інтелект не контролював ситуацію, компанія голосно й гордо заявляла, що ШІ взагалі не керував. У них є задокументовані докази цього твердження (припускаючи, що ШІ вів журнал інциденту). Насправді керівники компаній штучного інтелекту можуть підняти брови з огидою, що хтось заперечить їх чесність з цього приводу. Вони були б готові поклястися на своїй священній клятві, що ШІ є НЕ під контролем. Людина в петлі мала контроль.

Я вірю, що ви бачите, наскільки це може бути оманливим.

Так, людині передали управління. Теоретично все контролювала людина. ШІ більше не керував. Але відсутність доступного часу та повідомлень значною мірою робить це надзвичайно порожнім твердженням.

Принадність цього, з точки зору виробника ШІ, полягала б у тому, що мало хто міг би оскаржити запропоновані твердження. Розробник штучного інтелекту може не опублікувати журнали інциденту. Це може видати сфальсифіковану ситуацію. Вважається, що журнали є інтелектуальною власністю (IP) або іншим чином мають конфіденційний характер. Фірма, швидше за все, стверджуватиме, що якщо журнали будуть показані, це продемонструє секретний соус їх ШІ та виснажить їх цінну IP.

Уявіть собі тяжке становище бідолашної людини в петлі. Вони збентежені тим, що всі звинувачують їх у тому, що вони випустили речі з-під контролю. ШІ «вчинив правильно» і передав управління людині. Можливо, це було те, про що говорилося в специфікаціях (знову ж таки, специфікації були недобросовісними, оскільки не враховували фактори часу та здійсненності). Журнали, які не були оприлюднені, але які, як стверджує виробник штучного інтелекту, є залізними, свідчать про абсолютний факт того, що людину передав контроль ШІ.

Ви можете назвати це жалюгідним ударом спантеличеної людини, яка майже напевно впаде.

Швидше за все, лише якщо справа дійде до суду, реальність того, що сталося, буде розкрита. Якщо спритні легальні біглі знають про цей тип концерту, вони спробують легально отримати журнали. Їм потрібно буде запросити свідка-експерта (те, що я час від часу робив), щоб розшифрувати журнали. Одних колод може бути недостатньо. Журнали можуть бути підроблені чи змінені, або навмисно розроблені, щоб не демонструвати чітких деталей. Таким чином, код штучного інтелекту також може знадобитися заглибитися.

Тим часом, протягом усього цього болісного та тривалого процесу правового відкриття людина в петлі виглядатиме дуже погано. Засоби масової інформації малюватимуть людину як безвідповідальну, що втратила голову, невиконання старанності та несе повну відповідальність. Можливо, протягом місяців або років під час цього процесу ця особа все ще буде тією, на яку всі звинувачувало вказували пальцем. Сморід може ніколи не прибратися.

Майте також на увазі, що ця сама обставина може легко повторитися. І знову. Якщо припустити, що розробник штучного інтелекту не змінив його, щоразу, коли виникає подібна ситуація в останню хвилину, штучний інтелект збирається здійснити передачу без залишку часу. Можна сподіватися, що такі ситуації не трапляються часто. У рідкісних випадках, коли це трапляється, людина в петлі все ще є зручним падінням.

Це диявольський трюк.

Ви можете наполягати на тому, що виробник ШІ не зробив нічого поганого. Вони кажуть правду. ШІ відмовився від контролю. Тоді вважалося, що людина контролює. Це факти. Немає сенсу сперечатися.

Незалежно від того, чи хтось розумніє й ставить складні запитання, а також чи виробник штучного інтелекту відповідає на ці запитання будь-яким простим способом, це, здається, трапляється рідко.

Питання включають:

  • Коли штучний інтелект здійснив передачу людині в петлі?
  • На якій запрограмованій основі ШІ здійснив передачу?
  • Чи було надано людині в петлі достатньо часу, щоб взяти на себе контроль?
  • Як штучний інтелект був розроблений і створений для вирішення цих труднощів?
  • І так далі.

Певною мірою саме тому етика ШІ та етичний ШІ є такою важливою темою. Правила етики ШІ змушують нас залишатися пильними. Технологи штучного інтелекту іноді можуть бути стурбовані технологіями, особливо оптимізацією високих технологій. Вони не обов’язково враховують більші суспільні наслідки. Наявність мислення щодо етики штучного інтелекту, яке є невід’ємною частиною розробки та впровадження штучного інтелекту, є життєво важливим для створення належного штучного інтелекту, включаючи (можливо, дивовижно чи іронічно) оцінку того, як етика штучного інтелекту приймається компаніями.

Окрім застосування принципів етики штучного інтелекту в цілому, виникає відповідне питання про те, чи повинні ми мати закони, які регулюватимуть різні види використання ШІ. На федеральному, штатному та місцевому рівнях приймаються нові закони, які стосуються діапазону та характеру розробки ШІ. Зусилля щодо розробки та прийняття таких законів є поступовими. Етика штучного інтелекту служить принаймні тимчасовим засобом і майже напевно певною мірою буде безпосередньо включена в ці нові закони.

Майте на увазі, що деякі категорично стверджують, що нам не потрібні нові закони, які стосуються ШІ, і що наших існуючих законів достатньо. Насправді вони попереджають, що якщо ми все-таки запровадимо деякі з цих законів щодо ШІ, ми вб’ємо золотого гусака, пригнічуючи досягнення ШІ, які дають величезні переваги для суспільства.

На цьому етапі цієї вагомої дискусії я б’юся об заклад, що вам потрібні деякі додаткові ілюстративні приклади, які могли б продемонструвати цю тему. Є особливий і, безсумнівно, популярний набір прикладів, які мені близькі. Розумієте, у моїй якості експерта з штучного інтелекту, включаючи етичні та правові наслідки, мене часто просять визначити реалістичні приклади, які демонструють дилеми етики штучного інтелекту, щоб легше було зрозуміти теоретичну природу теми. Однією з найбільш яскравих сфер, яка яскраво представляє цю етичну проблему ШІ, є поява справжніх безпілотних автомобілів на основі штучного інтелекту. Це стане зручним варіантом використання або прикладом для широкого обговорення теми.

Тоді ось важливе питання, яке варто обдумати: Чи просвітлює поява справжніх безпілотних автомобілів на основі штучного інтелекту щось про синдром гарячої картоплі зі штучним інтелектом, і якщо так, то що це демонструє?

Дозвольте мені трохи розкрити питання.

По-перше, зауважте, що в справжньому самокерованому автомобілі немає водія-людини. Майте на увазі, що справжні самокеровані автомобілі керуються за допомогою системи водіння AI. Немає потреби в водієві-людині за кермом, а також не передбачено, щоб людина могла керувати транспортним засобом. Для мого широкого й постійного висвітлення автономних транспортних засобів (AV) і особливо самокерованих автомобілів див. посилання тут.

Я хотів би додатково пояснити, що мається на увазі, коли я маю на увазі справжні самокеровані автомобілі.

Розуміння рівнів самокерованих автомобілів

Як уточнення, справжні самокеровані автомобілі - це ті, де ШІ керує автомобілем повністю самостійно, і під час водіння немає жодної допомоги з боку людини.

Ці транспортні засоби без водія вважаються рівнями 4 і 5 (див. моє пояснення на Це посилання тут), в той час як автомобіль, який вимагає, щоб водій-людина спільно керував зусиллям, зазвичай розглядається на рівні 2 або рівня 3. Автомобілі, які спільно виконують завдання водіння, описуються як напівавтономні та зазвичай містять різноманітні автоматизовані надбудови, які називаються ADAS (Advanced Driver-Assist Systems).

На 5-му рівні ще немає справжнього самокерованого автомобіля, і ми ще навіть не знаємо, чи вдасться цього досягти, ані скільки часу знадобиться, щоб дістатися до нього.

Тим часом зусилля рівня 4 поступово намагаються отримати деяку тягу, проходячи дуже вузькі та вибіркові випробування на дорозі, хоча існують суперечки щодо того, чи слід дозволити це тестування як таке (всі ми є піддослідними свинками на життя чи смерть у експерименті дехто стверджує, що відбувається на наших автомагістралях і проїжджих шляхах, див Це посилання тут).

Оскільки для напівавтономних автомобілів потрібен водій людини, прийняття цих типів автомобілів не буде помітно відрізнятися від керування звичайними транспортними засобами, тому на цій темі не так вже й багато нового (хоча, як ви побачите через мить наступні пункти, як правило, застосовуються).

Для напівавтономних автомобілів важливо, щоб громадськість попередила про тривожний аспект, що виникає останнім часом, а саме: незважаючи на тих водіїв, які постійно публікують відеозаписи, засинаючи за кермом автомобіля рівня 2 або 3 рівня , ми всі повинні уникати того, щоб не вводити в оману вірити, що водій може відняти їхню увагу від завдання водіння під час керування напівавтономним автомобілем.

Ви несете відповідальну сторону за рушійні дії транспортного засобу, незалежно від того, наскільки автоматизація може бути перекинута на рівень 2 або 3 рівень.

Автомобілі та синдром гарячої картоплі ШІ

Для справжніх автомобілів рівня 4 та рівня 5, у водінні завдання не буде брати участь людина-водій.

Усі пасажири будуть пасажирами.

AI робить водіння.

Один аспект, який слід негайно обговорити, передбачає той факт, що ШІ, який бере участь у сучасних системах керування ШІ, не є розумним. Іншими словами, ШІ в цілому є колективом комп’ютерного програмування та алгоритмів, і, безперечно, він не в змозі міркувати так само, як це може людина.

Чому цей додатковий акцент на тому, що ШІ не є розумним?

Оскільки я хочу підкреслити, що, обговорюючи роль системи керування ШІ, я не приписую людські якості ШІ. Будь ласка, майте на увазі, що нині існує тривала та небезпечна тенденція до антропоморфізації ШІ. По суті, люди призначають сьогоднішній ШІ схожий на людину розум, незважаючи на незаперечний та беззаперечний факт, що такого ШІ ще не існує.

З цим роз’ясненням ви можете передбачити, що система водіння ШІ не буде якось “знати” про аспекти водіння. Водіння та все, що воно спричиняє, повинні бути запрограмовані як частина апаратного та програмного забезпечення самокерованого автомобіля.

Давайте зануримось у безліч аспектів, які виникають на цю тему.

По-перше, важливо усвідомити, що не всі самокеровані автомобілі з штучним інтелектом однакові. Кожен виробник автомобілів і технологічна фірма, що займаються самокеруванням, використовують свій підхід до розробки самокерованих автомобілів. Таким чином, важко робити розгорнуті заяви про те, що будуть робити, а що не робитимуть системи керування ШІ.

Крім того, щоразу, коли заявляють, що система керування штучним інтелектом не робить якоїсь конкретної речі, це згодом може бути обігнате розробниками, які насправді програмують комп’ютер на таку саму річ. Поступово системи керування ШІ поступово вдосконалюються та розширюються. Існуюче сьогодні обмеження може більше не існувати в майбутній ітерації або версії системи.

Я сподіваюся, що це містить достатню кількість застережень, щоб підтвердити те, що я збираюся розповісти.

Для повністю автономних транспортних засобів може не бути жодного шансу на передачу між штучним інтелектом і людиною, оскільки ймовірно, що в циклі немає жодної людини. Прагнення багатьох сучасних виробників безпілотних автомобілів полягає в тому, щоб повністю усунути людину-водія від керування автомобілем. У транспортному засобі навіть не буде доступних для людини елементів керування. У цьому випадку водій-людина, якщо він присутній, не зможе брати участь у завданні водіння, оскільки він не має доступу до будь-яких елементів керування.

Для деяких повністю автономних транспортних засобів деякі конструкції все ще дозволяють людині бути в курсі, хоча людині зовсім не обов’язково бути доступною або брати участь у процесі водіння. Таким чином, людина може брати участь у керуванні автомобілем, якщо сама цього бажає. Однак жодного разу ШІ не покладається на людину для виконання будь-яких завдань водіння.

У випадку з напівавтономними транспортними засобами між людиною-водієм і штучним інтелектом існує взаємодія рука об руку. У деяких моделях людина-водій може повністю взяти на себе керування автомобілем і, по суті, завадити штучному інтелекту брати участь у керуванні. Якщо людина-водій бажає відновити ШІ роль водіння, він може це зробити, хоча іноді це змушує людину відмовитися від керування.

Інша форма напівавтономної роботи передбачає спільну роботу людини-водія та штучного інтелекту. За кермом керує ШІ, а за кермом – людина. Вони їдуть разом. Штучний інтелект може підкорятися людині. Людина може підкоритися ШІ.

У певний момент система водіння штучного інтелекту може обчислювальним шляхом переконатися, що безпілотний автомобіль потрапляє в несприятливу ситуацію і що автономний транспортний засіб збирається розбитися.

Крім того, деякі експерти стверджують, що безпілотні автомобілі не піддадуться аваріям, і це чиста нісенітниця, обурливе й неправильне твердження. Перегляньте мій репортаж на посилання тут.

Продовжуючи сценарій безпілотного автомобіля, який прямує до зіткнення або автомобільної аварії, систему водіння штучного інтелекту можна запрограмувати таким чином, щоб одразу передати керування водієві. Якщо у водія-людини є достатньо часу, щоб ухилитися, це справді може бути розумним і правильним кроком для ШІ.

Але припустімо, що штучний інтелект виконує передачу за частки секунди. Час реакції людини-водія недостатньо швидкий, щоб адекватно відреагувати. До того ж, якби дивом людина була достатньо швидкою, то ймовірно, що немає життєздатних дій ухилення, які можна було б виконати за обмежений час, що залишився до аварії. Це два параметри: (1) недостатньо часу для людини-водія для вжиття дій, (2) недостатньо часу, щоб, якщо дія була можлива людиною-водієм, дія могла бути виконана за недостатньо наданого часу.

Загалом, це схоже на мою попередню дискусію про ситуацію з баскетбольним зумером і фабричне обладнання, яке скаженіло.

Давайте додамо до цього мерзенний інгредієнт.

Виробник автомобілів або технічна фірма, що займається безпілотним керуванням, не хоче, щоб їх помічали в різних автомобільних аваріях, які трапляються в їх автопарку. Система водіння штучного інтелекту запрограмована на те, щоб завжди передавати керування водієві-людині, незалежно від того, чи є у водія-людини достатньо часу, щоб зробити що-небудь із скрутного становища. Щоразу, коли відбувається подібна автомобільна аварія, виробник автомобілів або технологічна фірма, що займається безпілотним керуванням, може голосно наполягати на тому, що водій був за кермом, а штучний інтелект – ні.

Їхній послужний список систем водіння ШІ здається чудовим.

Жодного разу система водіння штучного інтелекту не була «винна» в цих автомобільних аваріях. Завжди ті прокляті водії-люди, які, здається, не зводять очей з дороги. Можливо, ми схильні проковтнути цю балаканину й повірити, що абсолютно точний штучний інтелект ніколи не помиляється. Ми можемо бути схильні вірити (оскільки знаємо з досвіду), що люди-водії неакуратні та роблять масу помилок за кермом. Логічний висновок полягає в тому, що люди-водії повинні бути винуватцями, а система водіння ШІ абсолютно невинна.

Перш ніж деякі прихильники автономного водіння засмутяться через цю характеристику, давайте визнаємо, що людина-водій цілком може бути винен і що їм слід було вжити заходів швидше, наприклад, перебрати керування автомобілем у ШІ. Існує також ймовірність того, що водій-людина міг зробити щось суттєве, коли штучний інтелект передав керування керуванням. тощо

Основна увага тут була зосереджена на обставинах, коли штучний інтелект вважався водієм транспортного засобу, а потім раптово та з невеликою увагою до того, що міг би зробити водій-людина, кидає водієві гарячу картоплю. Ось чому так багато людей стурбовані подвійною роллю водіння напівавтономних транспортних засобів. Можна сказати, що за кермом занадто багато водіїв. Мета, здається, полягає в тому, щоб вирішити проблему за допомогою повністю автономних транспортних засобів, яким не потрібна людина за кермом, а ШІ завжди керує транспортним засобом.

У зв’язку з цим виникає споріднене питання про те, що або хто несе відповідальність, коли ШІ керує автомобілем, про що я багато разів звертався у своїх колонках, наприклад посилання тут та посилання тут.

Висновок

Ми повинні бути обережними, коли чуємо або читаємо про автомобільні аварії за участю напівавтономних транспортних засобів. Будьте обережні з тими, хто намагається обдурити нас, заявляючи, що їхня система керування штучним інтелектом має бездоганну історію. Підступний підступ в AI Синдром гарячої картоплі може бути в суміші.

Для компаній, які намагаються бути хитрими в цих питаннях, можливо, ми можемо зберегти в своїх серцях знаменитий вислів Авраама Лінкольна: «Ви можете обдурити всіх людей деякий час і деяких людей постійно, але ви не можете обдурити всі люди весь час».

Я спробував розкрити тут магію штучного інтелекту, приховану за екраном, а іноді й під капотом, яку я з’ясував, щоб більше людей НЕ буде бути обдуреним частіше.

Джерело: https://www.forbes.com/sites/lanceeliot/2022/08/01/ai-ethics-fuming-about-the-rising-hot-potato-syndrome-being-employed-by-ai-makers- начебто-намагаються-уникнути-відповідальності-за-своє-життя-вирішують-автономні-системи/