Етика штучного інтелекту та закон про штучний інтелект ставлять важкі запитання щодо нової обіцянки виробників танцюючих роботів, які заявляють, що вони запобіжать створенню зброї ШІ

Можливо, минулого тижня ви побачили в новинах або помітили в соціальних мережах заяву деяких виробників роботів про їхні заявлені цілі уникати штучного інтелекту як зброї роботів загального призначення. За мить я розповім вам деталі, тому не хвилюйтеся, якщо ви не дізналися про це.

Реакція на цю проголошення була швидкою і, можливо, як зазвичай у нашому поляризованому суспільстві, була водночас хвалебною, а часом і глузливо-критичною, або просто відверто скептичною.

Це історія двох світів.

В одному світі дехто каже, що це саме те, що нам потрібно відповідальний Розробники роботів ШІ повинні заявити.

Слава Богу, що ви на правильному боці проблеми, яка поступово ставатиме все більш помітною та тривожною. Ці милі танцюючі роботи викликають занепокоєння, тому що їх досить легко переналаштувати, щоб вони носили зброю та використовувалися в найгірший спосіб (ви можете переконатися в цьому самостійно, зайшовши в соціальні мережі, і там є багато відео, на яких демонструються танцюючі роботи, озброєні автоматами та інше озброєння).

Зворотний бік цієї медалі говорить про те, що так звана застава — це не що інше, як маркетинговий хід або піар-хід (як додаткове зауваження, хтось знайомий з різницею між заставою та пожертвою?). У будь-якому випадку, сумніваючись запевняють, що це сигнал нестримної чесноти в контексті танцюючих роботів. Розумієте, нарікання на те, що роботи загального призначення можуть бути озброєними, безумовно, є доцільним і щиро зацікавленим, хоча просто стверджувати, що виробник цього не зробить, є, швидше за все, пустою обіцянкою, наполягають деякі.

Загалом, уся справа викликає досить великий набір міркувань етики ШІ та Закону ШІ. Ми ретельно розкриємо тему та побачимо, наскільки це подвійний удар етичного та правового болота ШІ. Про те, як я постійно висвітлюю етику штучного інтелекту та право штучного інтелекту, див посилання тут та посилання тут, просто назвемо декілька.

У цій дискусії я також буду посилатися на мій попередній аналіз небезпек використання штучного інтелекту як озброєння, як-от моя поглиблена оцінка на посилання тут. Можливо, ви захочете поглянути на цей дискурс, щоб отримати додаткові подробиці за кадром.

Відкритий лист, який відкриває банку з хробаками

Давайте почнемо цей аналіз із ретельного покрокового вивчення Відкритого листа, який нещодавно опублікували шість відносно відомих виробників передових роботів, а саме Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics та Unitree. Загалом, я припускаю, що ви бачили переважно роботів Boston Dynamics, таких як ті, що гарцюють на четвереньках. Вони виглядають так, ніби вони собаки, і нам приємно бачити, як вони бігають навколо.

Як я вже неодноразово попереджав раніше, використання таких «танцювальних» роботів як засіб переконати широку громадськість у тому, що ці роботи милі й чарівні, на жаль, вводить в оману та веде до численних пасток їх антропоморфізації. Ми починаємо думати про ці загартовані шматки металу та пластику, ніби вони еквівалент приємної відданої собаки. Наша готовність прийняти цих роботів ґрунтується на помилковому почутті безпеки та впевненості. Звичайно, ви повинні заробляти гроші, і шанси на це підвищуються, якщо ви будете демонструвати танцюючих роботів, але це, на жаль, замовчує або, здається, приховує справжній факт, що ці роботи є роботами, і що штучний інтелект, який керує роботами, може бути створений неправильно або піти наперекосяк.

Розглянемо ці розгалуження штучного інтелекту (уривок із моєї статті про створення зброї штучного інтелекту, знайдену на посилання тут):

  • ШІ може виявити помилку, через яку він збився з шляху
  • ШІ може бути перевантажений і заблокуватись
  • ШІ може містити помилки розробника, які спричиняють нестабільну поведінку
  • ШІ може бути пошкоджений імплантованим вірусом злочинця
  • ШІ може бути захоплений кіберхакерами в режимі реального часу
  • ШІ можна вважати непередбачуваним через складність
  • ШІ може за допомогою обчислень прийняти «неправильне» рішення (відносно)
  • І т.д.

Це ті моменти, які стосуються штучного інтелекту, який справді створений на початку, щоб робити правильні речі.

Окрім цих міркувань, ви повинні включити системи ШІ, створені з самого початку, щоб робити погані речі. Ви можете мати штучний інтелект, створений для корисних цілей, який часто називають ШІ для добра. Ви також можете мати ШІ, навмисно створений для поганих цілей, відомий як ШІ для поганого. Крім того, ви можете мати ШІ для добра що пошкоджено або перетворено на стан ШІ для поганого.

До речі, все це не має нічого спільного з тим, що штучний інтелект стає розумним, про що я згадую, тому що дехто продовжує вигукувати, що сьогоднішній штучний інтелект або розумний, або знаходиться на межі розумного. Не так. У своєму аналізі я розвіюю ці міфи посилання тут.

Тоді давайте переконаємося, що ми знаходимося на одній сторінці щодо природи сучасного ШІ.

Сьогодні немає жодного штучного інтелекту, який був би розумним. У нас цього немає. Ми не знаємо, чи буде можливий розумний ШІ. Ніхто не може влучно передбачити, чи досягнемо ми розумного ШІ, ані чи стане розумний ШІ якимось дивом спонтанно виникнути у формі обчислювальної когнітивної наднової (як правило, її називають сингулярністю, див. моє висвітлення на посилання тут).

Тип ШІ, на якому я зосереджуюсь, складається з нерозумного ШІ, який ми маємо сьогодні. Якби ми захотіли дико міркувати про розумний ШІ, ця дискусія могла б піти в радикально іншому напрямку. Розумний штучний інтелект мав би відповідати людській якості. Вам слід враховувати, що розумний ШІ є когнітивним еквівалентом людини. Більше того, оскільки деякі припускають, що ми можемо мати суперінтелектуальний ШІ, цілком можливо, що такий ШІ може стати розумнішим за людей (щодо мого дослідження суперінтелектуального ШІ як можливості див. висвітлення тут).

Я настійно пропоную, щоб ми трималися приземлених речей і розглянули сучасний обчислювальний нерозумний ШІ.

Зрозумійте, що сучасний AI не здатний «мислити» будь-яким чином нарівні з людським мисленням. Коли ви взаємодієте з Alexa або Siri, розмовні здібності можуть здатися схожими на людські здібності, але реальність така, що вони обчислювальні й позбавлені людського пізнання. Остання ера ШІ широко використовує машинне навчання (ML) і глибоке навчання (DL), які використовують узгодження обчислювальних шаблонів. Це призвело до систем штучного інтелекту, які мають вигляд людських схильностей. Тим часом, сьогодні немає жодного штучного інтелекту, який мав би вигляд здорового глузду і не мав би жодного когнітивного дива міцного людського мислення.

Будьте дуже обережні з антропоморфізацією сучасного ШІ.

ML/DL є формою узгодження обчислювальних шаблонів. Звичайний підхід полягає в тому, що ви збираєте дані про завдання прийняття рішення. Ви подаєте дані в моделі комп’ютерів ML/DL. Ці моделі прагнуть знайти математичні закономірності. Після виявлення таких закономірностей, якщо вони знайдені, система ШІ використовуватиме ці шаблони під час зустрічі з новими даними. Після представлення нових даних шаблони, засновані на «старих» або історичних даних, застосовуються для прийняття поточного рішення.

Я думаю, ви можете здогадатися, куди це веде. Якщо люди, які приймали рішення за зразком, включали упередження, ймовірно, дані відображають це тонким, але значущим чином. Машинне навчання або глибоке навчання обчислювальний шаблон зіставлення буде просто намагатися математично імітувати дані відповідно. Немає жодної видимості здорового глузду чи інших розумних аспектів моделювання, створеного AI, як такого.

Крім того, розробники ШІ також можуть не усвідомлювати, що відбувається. Таємнича математика в ML/DL може ускладнити виявлення прихованих упереджень. Ви справедливо сподіваєтесь і очікуєте, що розробники ШІ перевірять потенційно приховані упередження, хоча це складніше, ніж може здатися. Існує серйозна ймовірність того, що навіть за відносно великого тестування в моделях зіставлення шаблонів ML/DL все ще будуть присутні упередження.

Ви могли б трохи використати відоме чи сумнозвісне прислів’я «сміття в сміття – виходить». Справа в тому, що це більше схоже на упередження, які підступно вливаються, коли упередження занурюються в ШІ. Алгоритм прийняття рішень (ADM) ШІ аксіоматично стає обтяженим несправедливістю.

Не добре.

Усе це має дуже значний вплив на етику штучного інтелекту та пропонує зручне вікно в отримані уроки (навіть до того, як усі уроки відбудуться), коли справа доходить до спроб законодавчого впровадження штучного інтелекту.

Окрім застосування принципів етики штучного інтелекту в цілому, виникає відповідне питання про те, чи повинні ми мати закони, які регулюватимуть різні види використання ШІ. На федеральному, штатному та місцевому рівнях приймаються нові закони, які стосуються діапазону та характеру розробки ШІ. Зусилля щодо розробки та прийняття таких законів є поступовими. Етика штучного інтелекту служить принаймні тимчасовим засобом і майже напевно певною мірою буде безпосередньо включена в ці нові закони.

Майте на увазі, що деякі категорично стверджують, що нам не потрібні нові закони, які стосуються ШІ, і що наших існуючих законів достатньо. Вони попереджають, що якщо ми все-таки запровадимо деякі з цих законів щодо штучного інтелекту, ми вб’ємо золотого гусака, пригнічуючи досягнення ШІ, які пропонують величезні переваги для суспільства.

У попередніх колонках я розповідав про різні національні та міжнародні спроби розробити та прийняти закони, що регулюють ШІ, див. посилання тут, наприклад. Я також розглянув різні принципи та настанови етики штучного інтелекту, які визначили та прийняли різні країни, включаючи, наприклад, зусилля Організації Об’єднаних Націй, такі як набір етики штучного інтелекту ЮНЕСКО, який прийняли майже 200 країн, див. посилання тут.

Ось корисний ключовий список етичних критеріїв або характеристик систем штучного інтелекту, які я раніше детально досліджував:

  • прозорість
  • Справедливість і справедливість
  • Незлочинність
  • Відповідальність
  • Конфіденційність
  • Вигода
  • Свобода і автономія
  • Довіряйте
  • Sustainability
  • Гідність
  • Солідарність

Ці принципи етики штучного інтелекту повинні щиро використовуватися розробниками штучного інтелекту, а також тими, хто керує розробкою штучного інтелекту, і навіть тими, хто в кінцевому підсумку розміщує та підтримує системи штучного інтелекту.

Усі зацікавлені сторони протягом усього життєвого циклу розробки та використання штучного інтелекту враховуються в межах дотримання встановлених норм етичного штучного інтелекту. Це важливий момент, оскільки звичайне припущення полягає в тому, що «лише кодери» або ті, хто програмує ШІ, підлягають дотриманню понять етики ШІ. Як наголошувалося вище, для розробки та впровадження штучного інтелекту потрібне село, і для цього все село має знати та дотримуватися правил етики штучного інтелекту.

Тепер, коли я заклав корисну основу для участі у Відкритому листі, ми готові зануритися.

Офіційна тематика відкритого листа така:

  • "Відкритий лист до індустрії робототехніки та наших спільнот: роботи загального призначення не повинні використовуватися як зброя” (відповідно до опублікованого в Інтернеті).

Все йде нормально.

Назва майже нагадує морозиво та яблучний пиріг. Як хтось міг заперечувати це як колишній заклик уникнути створення зброї роботів ШІ?

Читайте далі, щоб побачити.

По-перше, як матеріал для розгляду, ось офіційний вступний абзац Відкритого листа:

  • «Ми є одними з провідних світових компаній, які прагнуть представити суспільству нові покоління передової мобільної робототехніки. Ці нові покоління роботів є більш доступними, простішими в експлуатації, більш автономними, доступними та адаптованими, ніж попередні покоління, і здатні переміщатися в місця, раніше недоступні для автоматизованих або дистанційно керованих технологій. Ми віримо, що просунуті мобільні роботи принесуть велику користь суспільству як колеги в промисловості та компаньйони в наших домівках» (відповідно до публікації в Інтернеті).

Сонячна сторона появи таких типів роботів полягає в тому, що ми можемо передбачити багато великих переваг. Без сумніву. Можливо, у вас вдома є робот, який може виконувати такі дії, як у Джетсона, як-от прибирання вашого будинку, миття посуду та інші домашні справи. У нас будуть передові роботи для використання на заводах і виробничих потужностях. Роботи потенційно можуть повзати або маневрувати у вузьких просторах, наприклад, коли будівля руйнується, і людські життя поставлені під загрозу. І так далі.

Крім того, вам може бути цікаво моє нещодавнє критичне висвітлення дня Tesla AI Day, на якому Ілон Маск зобразив певного роду крокуючих роботів як майбутнє для Tesla та суспільства, див. посилання тут.

Повернемося до справи. Серйозно обговорюючи танцюючих або крокуючих роботів, ми повинні уважно брати до уваги компроміси або загальну рентабельність інвестицій (ROI) від такого використання ШІ. Ми не повинні дозволяти собі надмірно захоплюватися перевагами, коли також є витрати, які слід враховувати.

Нова блискуча іграшка може мати досить гострі краї.

Усе це підштовхує важливий, але дещо мовчазний момент, що частково причиною того, що зараз виникає питання озброєння ШІ, є просування ШІ до автономної діяльності. Зазвичай ми очікуємо, що зброєю керує людина. Людина вирішує, стріляти чи використовувати зброю. Імовірно, ми можемо притягнути цю людину до відповідальності за її дії.

ШІ, розроблений для автономної роботи або який можна обманом змусити це зробити, здавалося б, усуне людину з циклу. Потім ШІ алгоритмічно приймає обчислювальні рішення, які можуть призвести до вбивства або заподіяння шкоди людям. Окрім очевидного занепокоєння щодо відсутності контролю над ШІ, у вас також є сумніви, що нам може бути важко покласти відповідальність за дії ШІ. У нас немає людини, яка б була нашим очевидним підбурювачем.

Я розумію, що дехто вважає, що ми повинні просто й безпосередньо покласти на ШІ відповідальність за його дії, ніби ШІ досяг розуму або іншим чином отримав статус юридичної особи (див. моє висвітлення дебатів щодо отримання ШІ права юридичної особи на посилання тут). Наразі це не спрацює. Нам доведеться простежити ШІ до людей, які його винайшли або застосували. Вони, безсумнівно, намагатимуться юридично уникнути відповідальності, намагаючись стверджувати, що штучний інтелект вийшов за межі того, що вони собі уявляли. Це зростаюча суперечка, з якою нам потрібно впоратися (перегляньте мої статті щодо закону про штучний інтелект, щоб дізнатися про спірні питання, пов’язані з цим).

Організація Об’єднаних Націй (ООН) через Конвенцію про певні види звичайної зброї (CCW) у Женеві встановила одинадцять необов’язкових Керівних принципів щодо летальної автономної зброї, згідно з офіційним звітом, опублікованим в Інтернеті (включаючи посилання на відповідні положення міжнародного гуманітарного права або МГП). , в тому числі:

(a) міжнародне гуманітарне право продовжує повністю застосовуватися до всіх систем зброї, включаючи потенційну розробку та використання летальних автономних систем зброї;

(b) Відповідальність людини за рішення щодо використання систем озброєння повинна бути збережена, оскільки відповідальність не може бути передана машинам. Це слід враховувати протягом усього життєвого циклу системи озброєнь;

(c) Взаємодія «людина-машина», яка може набувати різних форм і реалізовуватися на різних етапах життєвого циклу зброї, повинна гарантувати, що потенційне використання систем зброї на основі нових технологій у сфері смертоносних автономних систем зброї є в дотримання чинного міжнародного права, зокрема МГП. При визначенні якості та масштабу взаємодії «людина-машина» слід враховувати низку факторів, включаючи оперативний контекст, а також характеристики та можливості системи озброєння в цілому;

(d) Відповідальність за розробку, розгортання та використання будь-якої нової системи озброєння в рамках КНО має бути забезпечена відповідно до чинного міжнародного права, у тому числі шляхом функціонування таких систем у відповідальному ланцюжку командування та контролю;

(e) Відповідно до зобов’язань держав згідно з міжнародним правом, при вивченні, розробці, придбанні або прийнятті на озброєння нової зброї, засобів або методу ведення війни, має бути визначено, чи буде її застосування за деяких чи всіх обставин заборонені міжнародним правом;

(f) При розробці або придбанні нових систем зброї на основі новітніх технологій у сфері смертоносних автономних систем зброї, фізичної безпеки, відповідних нефізичних гарантій (включаючи кібербезпеку від злому або підробки даних), ризик придбання терористичними групами слід враховувати ризик розповсюдження;

(g) Оцінка ризиків і заходи з пом’якшення мають бути частиною циклу проектування, розробки, тестування та розгортання нових технологій у будь-яких системах озброєнь;

(h) слід приділити увагу використанню новітніх технологій у сфері смертоносних автономних систем зброї для забезпечення дотримання МГП та інших відповідних міжнародно-правових зобов’язань;

(i) При розробці потенційних політичних заходів нові технології в області летальних автономних систем зброї не повинні антропоморфізуватися;

(j) Обговорення та будь-які потенційні політичні заходи, вжиті в контексті КНО, не повинні перешкоджати прогресу або доступу до мирного використання інтелектуальних автономних технологій;

(k) CCW пропонує належну основу для вирішення проблеми нових технологій у сфері летальних автономних систем зброї в контексті цілей і цілей Конвенції, яка прагне знайти баланс між військовою необхідністю та гуманітарними міркуваннями.

Ці та інші різноманітні закони війни та закони збройних конфліктів, або МГП (міжнародне гуманітарне право), служать життєво важливим і багатообіцяючим керівництвом для розгляду того, що ми можемо спробувати зробити з появою автономних систем, які оснащені зброєю, чи то ключовим каменем дизайном або постфактум методами.

Дехто каже, що ми повинні прямо заборонити ті автономні системи штучного інтелекту, які можна використовувати як зброю. Правильно, світ повинен поставити ногу на ногу і рішуче вимагати, щоб автономні системи ШІ ніколи не використовувалися як зброя. Має бути введена повна заборона. Кінець історії. Крапка, крапка.

Що ж, ми можемо щиро побажати, щоб заборона на смертоносні озброєні автономні системи суворо й слухняно дотримувалася. Проблема полягає в тому, що в будь-якій найщирішій забороні неминуче знайдеться багато можливостей для хитрості. Як кажуть, правила створені для того, щоб їх порушувати. Можете посперечатися, що там, де все погано, тріщина шукатиме прогалини та намагатиметься обійти правила.

Ось деякі потенційні лазівки, які варто розглянути:

  • Претензії щодо несмертельності. Створюйте несмертоносні автономні системи зброї (здавалося б, це нормально, оскільки це поза межами заборони), які потім ви можете перетворити на смертоносні (ви потрапите за межі заборони лише в останню хвилину).
  • Претензії лише щодо автономної системи. Дотримуйтеся заборони, не створюючи автономних систем, орієнтованих на смертельні випадки, тим часом досягайте максимального прогресу в розробці повсякденних автономних систем, які (ще) не озброєні, але які ви можете за копійки модернізувати, щоб стати озброєнням.
  • Претензії не інтегровані як одне ціле. Створюйте автономні системи, які зовсім не озброєні, а коли прийде час, комбіновані озброєння, щоб ви могли різко стверджувати, що вони є двома окремими елементами, і тому стверджувати, що вони не підпадають під рубрику все-в-одному автономна система зброї або її двоюрідний брат.
  • Стверджує, що він неавтономний. Створіть систему зброї, яка, здається, не має автономних можливостей. Залиште місце в цій, ймовірно, неавтономній системі, для введення автономності на основі ШІ. Коли потрібно, підключіть автономію, і ви готові до роботи (до того часу, здавалося б, ви не порушували заборону).
  • Інше

Є багато інших виражених труднощів, пов’язаних із спробою прямої заборони летальних автономних систем зброї. Я розгляну ще кілька з них.

Деякі експерти стверджують, що заборона не є особливо корисною, а замість цього повинні бути нормативні положення. Ідея полягає в тому, що ці хитрощі будуть дозволені, але під суворим контролем поліції. Викладено перелік законних видів використання разом із законними способами націлювання, законними типами можливостей, законною пропорційністю тощо.

На їхню думку, пряма заборона — це все одно, що засунути голову в пісок і вдавати, що слона в кімнаті не існує. Однак ця суперечка викликає кипіння у тих, хто заперечує аргумент, що, запровадивши заборону, ви можете значно зменшити спокусу використовувати такі системи. Звичайно, дехто хизуватиметься забороною, але принаймні сподіваюся, що більшість – ні. Тоді ви можете зосередити свою увагу на рекламувальниках і не потрібно приділяти увагу кожному.

Ці дебати точаться.

Інша проблема, про яку часто згадують, полягає в тому, що навіть якщо хороші люди дотримуються заборони, погані – ні. Це ставить доброго в погане становище. Погані матимуть такі озброєні автономні системи, а хороші – ні. Щойно з’ясується, що є погані, буде надто пізно, щоб наздогнати хороші. Коротше кажучи, єдине розумне, що можна зробити, це підготуватися боротися з вогнем вогнем.

Існує також класичне протистояння щодо стримування. Якщо хороші вирішать створити озброєні автономні системи, це можна буде використати, щоб утримати поганих від спроб вступити в бійку. Або добрі будуть краще озброєні і таким чином відмовлятимуть поганих, або добрі будуть готові, коли злі, можливо, викриють, що вони весь час таємно розробляли ці системи.

Протилежністю цим протидіям є те, що, створюючи озброєні автономні системи, ви ведете гонку озброєнь. Інша сторона прагнутиме мати те саме. Навіть якщо вони технологічно не в змозі створити такі системи заново, тепер вони зможуть викрасти плани «хороших», переробити інжиніринг високотехнологічних нутрощів або імітувати все, що вони вважають перевіреним і правдивим. спосіб виконати роботу.

Ага, репліка, все це могло б призвести до зменшення конфліктів на подобу взаємного. Якщо сторона А знає, що сторона Б має таку смертоносну зброю автономних систем, а сторона Б знає, що вона є у сторони А, вони можуть сидіти спокійно і не вступати в бійку. Це має особливу ауру взаємно гарантованого знищення (MAD).

І так далі.

Придивіться до другого абзацу

Ми вже охопили багато питань у цьому документі і розглянули лише перший або початковий абзац Відкритого листа (всього чотири абзаци).

Час поглянути на другий абзац, ось:

  • «Як і будь-яка нова технологія, що пропонує нові можливості, поява передових мобільних роботів відкриває можливість неналежного використання. Ненадійні люди можуть використовувати їх для порушення громадянських прав або для погроз, шкоди чи залякування інших. Особливе занепокоєння викликає озброєння. Ми вважаємо, що додавання зброї до роботів, які управляються дистанційно або автономно, широко доступні для громадськості та здатні переміщатися в раніше недоступні місця, де люди живуть і працюють, створює нові ризики шкоди та серйозні етичні проблеми. Застосування нових роботів у формі зброї також зашкодить суспільній довірі до технології таким чином, що зашкодить величезній користі, яку вони принесуть суспільству. З цих причин ми не підтримуємо озброєння наших роботів загального призначення з підвищеною мобільністю. Для тих із нас, хто обговорював це питання в минулому, і тих, хто бере участь у цьому вперше, ми тепер відчуваємо актуальність у світлі зростаючого занепокоєння громадськості в останні місяці, викликаного невеликою кількістю людей, які помітно оприлюднили свій імпровізований спроби використовувати комерційно доступних роботів як зброю» (відповідно до публікації в Інтернеті).

Прочитавши цей другий абзац, я сподіваюся, ви побачите, як мій попередній дискурс тут щодо створення зброї ШІ виходить на перший план.

Давайте розглянемо кілька додаткових моментів.

Одне з певних сумнівів щодо певного аспекту формулювання, яке викликало обурення у деяких, полягає в тому, що розповідь, здається, підкреслює, що «ненадійні люди» можуть зловживати цими роботами ШІ. Так, справді, це можуть бути погані люди чи зловмисники, які спричиняють підлі дії, які «зловживатимуть» роботами ШІ.

У той же час, як зазначалося на початку цього обговорення, нам також потрібно чітко пояснити, що сам штучний інтелект може піти не так, можливо, через вбудовані баги чи помилки та інші подібні ускладнення. Виражене занепокоєння полягає в тому, що лише підкреслюється можливість ненадійні люди полягає в тому, що він, здається, ігнорує інші несприятливі можливості. Хоча більшість компаній і постачальників штучного інтелекту не бажають цього визнавати, існує безліч проблем із системами штучного інтелекту, які можуть підірвати безпеку та надійність автономних систем. Про те, як я розповідаю про безпеку штучного інтелекту та необхідність суворих і перевірених заходів безпеки, див посилання тут, Наприклад.

Інший важливий момент, який виник серед тих, хто вивчав Відкритий лист, передбачає включене твердження про те, що це може призвести до підриву громадської довіри, пов’язаної з роботами ШІ.

З одного боку, це справедливе твердження. Якщо роботів зі штучним інтелектом використовуватимуть для проведення злих торгів, ви можете посперечатися, що публіка буде неабияк розпалена. Коли громадськість запалиться, ви можете посперечатися, що законодавці кинуться в набіг і прагнуть прийняти закони, які обмежують роботів зі штучним інтелектом і виробників роботів зі штучним інтелектом. Це, у свою чергу, може завдати шкоди індустрії робототехніки штучного інтелекту, якщо закони будуть всеохоплюючими та припинять зусилля, пов’язані з робототехнічними перевагами штучного інтелекту. У певному сенсі дитину могли викинути разом із водою (старий вислів, який, мабуть, заслуговує на пенсію).

Також постає очевидне питання: чи це твердження про запобігання зниженню суспільної довіри до роботів зі штучним інтелектом є певною мірою егоїстичним кредо чи це для блага всіх нас (може і те, і інше?).

Тобі вирішувати.

Тепер ми переходимо до особливо змістовної частини Відкритого листа:

  • «Ми обіцяємо, що ми не будемо використовувати наших роботів загального призначення з підвищеною мобільністю або програмне забезпечення, яке ми розробляємо, яке забезпечує передову робототехніку, і не підтримуватимемо інших у цьому. Коли це можливо, ми ретельно перевірятимемо заплановані програми наших клієнтів, щоб уникнути потенційного використання зброї. Ми також зобов’язуємося вивчити розвиток технологічних функцій, які могли б пом’якшити або зменшити ці ризики. Щоб було зрозуміло, ми не заперечуємо існуючі технології, які країни та їхні урядові установи використовують для захисту та дотримання своїх законів» (відповідно до публікації в Інтернеті).

Ми можемо розпакувати це.

Сядьте і підготуйтеся відповідно.

Ви готові до вогняної поляризації?

З іншого боку, дехто голосно заявляє, що ці виробники роботів зі штучним інтелектом дадуть таку обіцянку. Схоже, що ці виробники роботів, на щастя, намагатимуться не використовувати своїх «роботів загального призначення з підвищеною мобільністю» як зброю. Крім того, у Відкритому листі йдеться, що вони не підтримуватимуть інших, які це зроблять.

Критики дивуються, чи не відбувається якась хитра слівниця.

Наприклад, де починається і де закінчується «розширена мобільність»? Якщо виробник роботів розробляє a простий-мобільний AI-робот, а не просунутий (це невизначений технічний жаргон), чи виключається це зі сфери того, що буде НЕ бути озброєним? Таким чином, мабуть, це нормально використовувати простих мобільних ШІ-роботів, якщо вони не є т.зв. просунутий.

Те саме стосується формулювання роботів загального призначення. Якщо робот зі штучним інтелектом розроблений спеціально для створення зброї, а отже, таким не є, скажемо, що a Головна мета робот, чи стане це життєздатним виключенням зі сфери застосування?

Ви можете сперечатися над цими примхами та палко стверджувати, що це лише відкритий лист, а не п’ятдесят сторінковий юридичний документ, у якому описано кожен закуток.

Це підводить нас до, здавалося б, більш макрорівневого сумніву, який висловлюють деякі. По суті, що означає «застава»?

Деякі запитують, а де яловичина?

Компанія, яка дає таку обіцянку, здається, робить це без жодної справжньої участі в грі. Якщо керівництво будь-якої фірми, яка підписується на цю обіцянку, вирішить більше не виконувати цю обіцянку, що станеться з цією фірмою? Чи отримають керівники в спрощеному порядку? Чи компанія закриється і чи буде щиро вибачатися за порушення обіцянки? І так далі.

Наскільки можна зробити висновок, немає жодного конкретного покарання чи покарання за будь-яке порушення застави.

Ви можете заперечити, що існує можливість завдати шкоди репутації. Фірма, що надає заставу, може бути обвинувачена на ринку за те, що вона дала заставу, якої вона більше не виконує. Звичайно, це також передбачає, що люди пам’ятають, що заставу було дано. Це також припускає, що порушення застави буде якимось чином виявлено (малоймовірно, що фірма все розповість, якщо це зробить). Порушника зобов’язань потрібно було б викрити, але така проблема може стати просто шумом у поточному цунамі новин про виробників робототехніки зі штучним інтелектом.

Розглянемо інший ракурс, який виник.

Фірма-заставник купується більшою фірмою. Більша фірма вирішила почати перетворювати роботів загального призначення з передовою мобільністю на версії зі зброєю ШІ.

Чи є це порушенням застави?

Більша фірма може наполягати на тому, що це не є порушенням, оскільки вона (більша фірма) ніколи не давала заставу. Тим часом нешкідливих роботів зі штучним інтелектом, яких менша фірма зібрала та розробила, роблячи це з, здавалося б, найальтруїстичнішими намірами, майже за одну ніч було перетворено на зброю.

Начебто підриває обіцянку, хоча можна сказати, що менша фірма не знала, що це колись станеться. Вони були щирі у своєму бажанні. Те, що вирішила зробити більша фірма-покупець, було поза їхнім контролем.

Деякі також запитують, чи є за це якась юридична відповідальність.

Фірма, що надає заставу, через кілька місяців вирішить, що не збирається виконувати заставу. Вони передумали. Чи можна подати на фірму до суду за те, що вона відмовилася від даної застави? Хто б подав до суду? Що було б підставою для позову? Виникає купа юридичних питань. Як то кажуть, подати до суду можна практично на будь-кого, але чи вдасться вам перемогти – це зовсім інше питання.

Подумайте про це інакше. Фірма, що бере заставу, отримує можливість укласти справді велику угоду, щоб продати цілу купу своїх роботів загального призначення з передовою мобільністю величезній компанії, яка готова заплатити за ці роботи. Це одна з тих угод про купівлю на багатомільйони доларів, які трапляються раз у житті.

Що повинна робити компанія, що займається робототехнікою штучного інтелекту?

Якщо фірма, що займається робототехнікою штучного інтелекту, продається на біржі, вони майже напевно прагнуть здійснити продаж (те саме можна сказати про приватну фірму, хоча й не зовсім так). Уявіть собі, що фірма-заставник стурбована тим, що покупець може спробувати зробити роботів зброєю, хоча, скажімо, такого обговорення немає. Подейкують, що покупець може це зробити.

Відповідно, фірма, яка дає заставу, вказує у своїй ліцензії, що роботи не можуть використовуватися як зброя. Покупець не сприймає цю мову і відходить від покупки.

Скільки прибутку отримала робототехнічна фірма зі штучним інтелектом?

Чи існує момент, коли власний прибуток переважує включення вимоги обмеження ліцензування (або, можливо, юридичне формулювання обмеження, щоб дати простір для ворушінь і все одно здійснити угоду)? Я думаю, що ви бачите, яка це проблема. Безліч таких сценаріїв легко придумати. Питання в тому, чи матиме ця застава зуби. Якщо так, то які зуби?

Коротше кажучи, як згадувалося на початку цієї дискусії, деякі підсилені тим, що такий тип застави зроблено, тоді як інші мають більш туманну думку щодо того, чи застава витримає воду.

Рухаємося далі.

Отримання обіцянки

Четвертий і останній абзац Відкритого листа говорить наступне:

  • «Ми розуміємо, що лише нашої відданості недостатньо для повного усунення цих ризиків, і тому ми закликаємо політиків співпрацювати з нами, щоб сприяти безпечному використанню цих роботів і забороняти їх неправильне використання. Ми також закликаємо кожну організацію, розробника, дослідника та користувача в спільноті робототехніки взяти подібні зобов’язання не будувати, не дозволяти, підтримувати або дозволяти приєднання зброї до таких роботів. Ми переконані, що переваги цих технологій для людства значно переважують ризик неправильного використання, і ми раді світлому майбутньому, у якому люди та роботи працюватимуть пліч-о-пліч, щоб долати деякі світові виклики» (відповідно до публікації в Інтернеті).

Ця остання частина відкритого листа містить кілька додаткових елементів, які викликали гнів.

Дехто стверджує, що звернення до політиків може бути доречним або неправильним. Ви можете змусити політиків, які не розбираються в цих питаннях, застосувати класичні поспішні рішення та підробити закони та правила, які узурпують прогрес у роботах ШІ. Відповідно до того, що було сказано раніше, можливо, інновації, які сприяють прогресу робототехніки штучного інтелекту, будуть зірвані або завалені.

Краще будьте впевнені, що ви знаєте, чого ви просите, кажуть критики.

Звичайно, контраргументом є те, що в розповіді чітко сказано, що політики повинні співпрацювати з фірмами, що займаються робототехнікою штучного інтелекту, щоб з’ясувати, як імовірно розумно прийняти такі закони та правила. Протилежністю контраргументу є те, що політиків можна вважати прихильними до виробників робототехніки ШІ, якщо вони задовольняють їхні примхи. Протилежність контраргументам полягає в тому, що природно необхідно працювати з тими, хто знає про технологію, інакше результат потенційно буде безладним. тощо

На основі, можливо, сварки, у деяких була печія через лінію, яка закликає всіх зробити подібні обіцянки не кріплення зброї до роботів загального призначення з підвищеною мобільністю. Ключовим словом є слово кріплення. Якщо хтось створює робота зі штучним інтелектом, який включає або легко вбудовує зброю, це, здається, обходить формулювання кріплення щось. Ви можете побачити це зараз, хтось палко стверджує, що зброя не прикріплена, вона є невід’ємною частиною робота ШІ. Подолайте це, вигукують вони, ми не входимо в сферу дії цієї обіцянки, і вони навіть інакше могли б сказати, що були.

Це викликає ще одну скаргу на відсутність липкості застави.

Чи може фірма чи будь-хто взагалі, хто вирішив взяти цю заставу, оголосити себе незабезпеченою в будь-який час і з будь-якої причини?

Мабуть так.

Навколо точиться багато суперечок щодо обіцянок і того, яку тягу вони надають.

Висновок

Ой, скажете ви, ці компанії, які намагаються робити правильні речі, отримують критику за те, що вони намагаються робити правильні речі.

Що сталося з нашим світом?

Будь-хто, хто дає таку обітницю, повинен мати перевагу сумнівів, ви могли б пристрасно стверджувати. Вони виходять у громадську сферу, щоб зробити сміливий і важливий внесок. Якщо ми почнемо паплюжити їх за це, це, безумовно, погіршить ситуацію. Ніхто не захоче давати таку заставу. Фірми та інші навіть не намагатимуться. Вони сховаються й не попередять суспільство про те, на що можуть небезпечно перетворитися ці улюблені танцюючі роботи.

Скептики заявляють, що спосіб змусити суспільство розуміти передбачає інші дії, такі як відмова від химерного акту демонстрації веселих та танцюючих роботів ШІ. Або принаймні зробити це більш збалансованим вчинком. Наприклад, замість того, щоб імітувати улюблених відданих домашніх тварин собак, проілюструйте, як танцюючі роботи можуть бути більш схожими на диких розлючених вовків, які можуть розтерзати людей на шматки без жодного вагання.

Вони благають, що це приверне більше уваги, ніж обіцянки.

Застави, безсумнівно, можуть бути справжньою головоломкою.

Як красномовно сказав Махатма Ганді: «Незалежно від того, наскільки чіткою є обіцянка, люди повертатимуть і перекручуватимуть текст відповідно до власних цілей».

Можливо, завершуючи це на піднесеній ноті, Томас Джефферсон сказав про обітниці наступне: «Ми взаємно зобов’язуємось одне одному наше життя, наші статки та нашу священну честь».

Коли мова заходить про роботів зі штучним інтелектом, їхню автономію, озброєння тощо, ми всі зрештою будемо працювати разом. Нашою взаємною обіцянкою має бути щонайменше те, що ми будемо тримати ці питання на передньому плані, ми намагатимемося знайти способи впоратися з цими досягненнями та якось знайти шлях до забезпечення нашої честі, нашої долі та нашого життя.

Чи можемо ми пообіцяти це?

Я так сподіваюся.

Джерело: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- виробники-роботів-кажуть-що-будуть-запобігти-аі-зброї/