Розсув межі етики штучного інтелекту в перевернутий світ радикального етичного штучного інтелекту, потенційно продемонстрований на прикладі використання хвалених самокерованих автомобілів на основі штучного інтелекту

Чи переважний характер і увага сьогоднішньої зовнішності етики штучного інтелекту потрапили у справжню колію?

Дехто, здається, рішуче так вважає.

Давайте розпакуємо це.

Як правило, ви знаєте, що інтерес до етичних наслідків штучного інтелекту зростає. Це часто називають або етикою штучного інтелекту, або етичним штучним інтелектом, які ми розглядатимемо тут як переважно еквівалентні та взаємозамінні (я вважаю, що дехто може посперечатися з цим припущенням, але я хотів би запропонувати, щоб ми не відволікалися на різниці потенціалів, якщо такі є, для цілей цього обговорення).

Частково причиною того, що етичні та моральні міркування з приводу ШІ піднялися, пояснюється поступово зростаючим потоком т.зв. ШІ для поганого. Розумієте, спочатку остання хвиля штучного інтелекту сприймалася як пропозиція ШІ для добра. Це була ідея, що ШІ міг би допомогти у вирішенні багатьох проблем, які в іншому випадку важко розв’язувати, на які комп’ютери досі не могли прагнути. Ми можемо нарешті виявити, що використовуємо штучний інтелект для вирішення багатьох найважчих проблем у світі.

Під час цієї дещо мрійливої ​​подорожі додому прийшло усвідомлення того, що є й інша сторона медалі. Це те ШІ для поганого. Наприклад, ви, можливо, знаєте про суперечку щодо розпізнавання обличчя на основі штучного інтелекту, яка часом втілювала расові та гендерні упередження (перегляньте мій аналіз за цим посиланням). Не добре. Зараз існує багато чітких прикладів систем штучного інтелекту, які мають безліч несправедливих нерівностей, вбудованих у їхню функціональність алгоритмічного прийняття рішень (ADM).

Деякі суворі проблеми штучного інтелекту є етично прикордонними, тоді як інші проблеми виходять за рамки будь-яких розумних етичних меж. Крім того, ви також можете розраховувати, що штучний інтелект може нібито діяти незаконно або повністю забороняється незаконним виконавцем. Двоетапний крок до того, щоб бути забитим законом і етичними звичаями, має на меті уповільнити ШІ для поганого і прагнути запобігти поточному наступу ШІ, який за замовчуванням може бути повністю пронизаний вкрай аморальними та незаконними елементами.

Я детально висвітлював тему етики штучного інтелекту у своїх колонках, наприклад, висвітлення за цим посиланням, а також за цим посиланням тут, щоб назвати лише деякі. Один відносно поширений набір етичних факторів ШІ полягає в тому, щоб звернути увагу на такі характеристики ШІ:

  • справедливість
  • прозорість
  • Пояснюваність
  • Конфіденційність
  • Достовірність
  • Гідність
  • Вигода
  • І т.д.

Це часто цитовані соціальні конструкції, які ми повинні обміркувати, коли справа доходить до створення та застосування сучасного штучного інтелекту. Швидше за все, якщо ви, можливо, подивитеся на статтю або допис у блозі, що охоплює етику штучного інтелекту, ви побачите, що тема статті зосереджена на одному з вищезгаданих факторів або характеристик.

Я вважаю, що загалом ті, хто голосно закликає до етичного ШІ, погодяться, що ці фактори варті уваги. Справді, справжня проблема, здається, полягає в тому, що ті, хто створює AI, і ті, хто проголошує AI, здається, не сприймають повідомлення. Це спонукало тих, хто є посередником руху за етику штучного інтелекту, докладніше пояснити, чому ці характеристики настільки важливі. На жаль, багато розробників і компаній, які використовують AI, вважають, що це приємно мати, тобто просто необов’язковий, або вони вважають етичний AI більше абстрактним академічним заняттям, ніж чимось повсякденного практичного характеру.

За моїми прогнозами, багато з тих, хто задумується над етичним штучним інтелектом, одного разу прокинуться і грубо виявлять, що перебувають під суворим прикриттям суспільства, а також закону. Люди будуть дуже засмучені, виявивши, що поширений штучний інтелект, вбудований у всілякі товари та послуги, приправлений упередженнями та несправедливістю. Законодавці вже наполягають на нових законах, щоб спробувати забезпечити, щоб ті, хто пропагує такий ШІ, підпали під дію юридично однозначних правил, що значно ускладнює розробникам ШІ та тим, хто використовує ШІ, уникати будь-яких несприятливих цивільних і прокурорських кримінальних можливостей. від їхніх починань.

Не здаючись легковажними, колеса правосуддя невблаганно прокладають собі шлях до тих, хто випромінює та сприяє розвитку ШІ.

Щоб уточнити, ШІ для поганого не обов’язково приписується лише акторам-лиходіям. Виявилося, що більшість розробників AI та тих, хто обслуговує AI всьому світу в цілому, часто не знають, що у них на руках. Сильний сигнал про етику штучного інтелекту, мабуть, ще не дійшов до їхніх вух. Ви можете виявляти співчуття до тих, хто блаженно не усвідомлює, хоча це не звільняє їх від відповідальності та основного обов’язку піклуватися.

Я хотів би коротко зазначити, що ви не повинні потрапляти в підступну ментальну пастку, що вину за несприятливий ШІ покладають на ноги самого ШІ. Це майже смішно, хоча воно продовжує використовуватися як евакуаційний люк і, здається, час від часу неймовірно працює на тих, хто не знайомий з сучасним штучним інтелектом. Розумієте, сучасний AI не розумний. Навіть близько не. Ми не знаємо, чи можливе відчуття штучного інтелекту. Ми не знаємо, коли може бути досягнутий розумний ШІ.

Суть полягає в тому, що AI звинувачує гру в тому, що вона відволікає всіх, вказуючи пальцем на AI, оскільки відповідальна сторона є нещирою, якщо не зовсім огидною хитрістю, дивіться мої розповіді про це за посиланням тут. Існуючий AI запрограмований людьми-розробниками. Існуючий AI вивільняється і стає доступним людьми. Компанії, які створюють AI, і компанії, які ліцензують або купують AI для цілей використання AI у своїх товарах і послугах, повністю засновані на людстві. Люди є носіями відповідальності, а не ШІ (можливо, в майбутньому ми матимемо ШІ іншої та більш досконалої зовнішності, і тоді нам потрібно буде більше боротися з розрізненням того, де лежить вина).

Коротко підводячи підсумок, ми повинні бути вдячні, що вокалізатори Ethical AI рішуче намагаються донести суспільство до розуміння етичних наслідків AI. Зараз це майже схоже на акт Сізіфа, коли валун котиться на крутий пагорб. Багато хто з тих, хто мав би слухати, цього не роблять. Тих, хто слухає, не завжди спонукають до виправних дій. Подібно до того, як Сізіф мав незавидне завдання вічно штовхати цей валун на пагорб, ви можете цілком припустити, що какофонія AI Ethics обов’язково повинна стати вічним галасом.

Здається, це вирішило питання про етику штучного інтелекту, і ми, мабуть, можемо перейти до іншої теми.

Але зачекайте, є ще.

Ви можете бути здивовані або навіть шоковані, дізнавшись, що деякі стверджують, що існуючі міркування щодо етичного штучного інтелекту є недопущеними. Основний камінь етики штучного інтелекту заглибився в групове мислення, закликають вони голосно.

Ось така угода.

Кажуть, що мій раніше зазначений список факторів етики ШІ став задушливим заклопотанням команд Етичного ШІ. Кожен бездумно приймає ці фактори і продовжує відбивати ці самі фактори знову і знову. Подібно до ехо-камери, більшість фахівців з етики ШІ повторюють собі ту саму пісню, насолоджуючись її звуком. Мало хто охоче вирватися зі зграї. Стадний менталітет обігнав етичний ШІ (так стверджують).

Як виникла ця загадка? Очевидно, ви можете пояснити це небажане впровадження етичного штучного інтелекту на основі випадковості або задуму.

У сценарії випадковості зосередитися на ключових факторах надзвичайно легко. Ви не повинні виходити за рамки, як би. Крім того, ті, хто входить до табору етичного штучного інтелекту, швидше за все, більше цікавляться подібною роботою чи ідеями, а не пошуком ідей за межами норми. Рибалка рибалку бачить здалеку. Кажуть, що дюйм за дюймом арена етики штучного інтелекту скупчилася в тісний кластер і загалом добре сприймає знайомство та комфорт, які вона викликає.

Я впевнений, що це викличе гнів багатьох учасників етики ШІ (запам’ятайте, що я просто згадую, про що сперечаються інші, і не підтверджую ці звинувачення).

Якщо ви хочете викликати гнів, подумайте про те, що це явище виникло спеціально. У певній сфері теорії змови кажуть, що технологи ШІ та технологічні компанії безпосередньо чи підсвідомо сприяють звуженню міркувань етичного ШІ.

Чому вони так робили?

Ми розглянемо дві можливості.

Одне з ідей полягає в тому, що технологи ШІ віддають перевагу існуючому набору міркувань етичного ШІ, оскільки ці конкретні фактори певною мірою можна виправити за допомогою технології. Наприклад, якщо ви хочете пояснити, технологи AI та дослідники AI працюють день і ніч, щоб створити пояснювані можливості AI (XAI). Принадність переважаючого списку етичних факторів штучного інтелекту полягає в тому, що вони вписуються в компетенцію рішень технології AI. Ті, хто приписує цю теорію, схильні припускати, що будь-які інші фактори, які не можна легко розв’язати технічними засобами штучного інтелекту, не можуть закріпитися в списку факторів.

Тоді у вас є інший, більш мерзенний варіант. Припускається, що є високотехнологічні компанії та інші, які хочуть по суті на словах пояснити питання етики ШІ. У цьому сенсі вони насолоджуються коротшим списком технологічно вирішуваних проблем. Будь-яка спроба додати інші проблеми ускладнить життя цих технологічних компаній. Вони хочуть звести до мінімуму інвестиції, необхідні для заспокоєння проголошень етичного штучного інтелекту.

Я припускаю, що такий натяк неодмінно спровокує кулачні сутички і виходить далеко за межі простого гніву. Ті, хто невтомно намагається дотримуватись етичного штучного інтелекту та вносити свій внесок у нього, потенційно можуть бути обмазані цими заявами, і ви можете легко уявити, чому вони будуть обурені такими, здавалося б, безсоромними та зовсім нахабними звинуваченнями.

Давайте не будемо розпочинати бійку, а натомість почнемо тверезо й задуматися, щоб побачити, чого ще табір етичного штучного інтелекту нібито упускає. Інший табір, який благає розширити та розширити точку зору сучасного етичного ШІ, іноді називають Радикальний етичний ШІ.

Ви можете задатися питанням, чи підходить ім’я Radical Ethical AI, чи є його неприйнятним.

Конотація чогось «радикального» може бути як хорошим, так і поганим. Одне з тлумачень радикального етичного ШІ полягає в тому, що це спроба похитнути статус-кво етики ШІ. Використання «радикальних» демонструє те, що нам потрібно зробити узгоджений драматичний поворот, а не просто трохи підкоригувати чи слабенько надати трішки повороту. Ви можете стверджувати, що використання «радикалу» шокує існуючі підходи, подібні до використання дефібрилятора, якого інакше за звичайними умовами не було б досягнуто.

Інші сказали б, що, додаючи слово «радикальний», ви створюєте неабиякий безлад. Дехто інтерпретує радикалізм як дивовижність, що сповзає до ексцентричної чи дивацької. Центристи могли б відразу відкинути саме поняття про те, чи існує групове мислення лише через названня як образливу вигадку. Дехто скаже, що пом’якшіть риторику, і ви можете отримати більш серйозну увагу та інтерес.

Не дивлячись на проблему з іменами, вам може бути цікаво, що це таке, що цей інший табір вважає, що інші з нас відсутні. Відкиньте будь-яку вісцеральну реакцію на whatchamacallit.

Ви можете зовні запитати, а де яловичина?

Я спробую представити деякі з згаданих інгредієнтів.

По-перше, один заявлений недогляд полягає в тому, що переважаюча точка зору на традиційний (старомодний?) етичний ШІ є стриманим прихованим припущенням, що ШІ неминучий. Таким чином, замість того, щоб досліджувати, чи варто ШІ взагалі використовувати для певних видів використання та суспільних обставин, переважаюча позиція полягає в тому, що ШІ наближається, і нам потрібно привести його в найкращу форму. Ви можете сміливо сказати, що це схоже на нанесення помади на свиню (тобто це все одно свиня, незалежно від того, що ви робите, щоб вона виглядала краще).

Якщо ви доведете це до крайності, то сумніви щодо справедливості, конфіденційності та іншого, можливо, будуть схожі на пересування стільців на палубі «Титаніка». Цей корабель все ще потоне, а це означає, що ми припускаємо, що ШІ відбудеться, незважаючи ні на що. Але, можливо, нам варто переглянути, чи затоплення є єдиним варіантом.

Через деякий час я повернуся до цього розгляду.

Нижче наведено деякі інші заявлені питання етичного штучного інтелекту, яким або не приділяють належне, або які витіснені великою увагою до інших переважних тем:

  • Окрім використання штучного інтелекту для керування людьми, наприклад, збільшення використання AI для прийняття рішень щодо найму та звільнення в компаніях, є також сумніви щодо використання AI для керування тваринами. Існують зусилля щодо використання ШІ на фермах, зоопарках і взагалі в будь-якому місці, де зазвичай утримують тварин. Як ШІ вплине на добробут тварин?
  • Бувають випадки, коли штучний інтелект, здавалося б, проходить бета-тестування в особливо вразливих спільнотах, роблячи це як першу спробу, а потім AI буде поширюватися ширше. Пильна увага до етичного ШІ має бути спрямована на ці практики.
  • Здається, що відбувається багато дискусій щодо заміни працівників штучним інтелектом, хоча менше уваги приділяється впливу AI як інструменту моніторингу, який використовується для нагляду за низькооплачуваними працівниками з низьким статусом.
  • Здається, недостатньо уваги приділяється екологічним і екологічним впливам створення та підтримки роботи систем ШІ (як убік, вам може бути цікаво моє обговорення вуглецевого сліду, пов’язаного з ШІ, див. посилання тут).

· І так далі.

Є деякі спеціалісти з етичного ШІ, які, швидше за все, відразу вкажуть, що це насправді теми, які можна знайти в літературі та дискусіях про етику ШІ. Вони не є нечуваними і не є надзвичайно новими.

Я вважаю, що точка зору радикальних етичних пуристів ШІ полягає в тому, що вони не стверджують, що відкрили абсолютно непройдений грунт. Натомість вони стверджують, що існуючий фокус Етичного ШІ заглушає повітря, що дихає, дозволяючи іншим «необхідним» темам отримати належне.

Можливо, більш прийнятний спосіб сформулювати це полягає в тому, що переважаюча увага до етики ШІ приділяє менше уваги іншим життєво важливим темам. Ви можете припустити, що існують сліпі зони, і було б зручно подумати, чи можна їх розширити (це також обговорюється в Журнал AI та етики у нещодавній роботі Тіла Хагендорфа під назвою «Сліпі плями в етиці штучного інтелекту».

Тепер, коли ми висвітлили сагу про те, чи перебуває етичний AI у певній колії, що дехто стверджує, що це безглузде твердження, а інші наполягатимуть на тому, що колія реальна і стає все гіршою, можливо, ми можемо виділити момент, щоб дослідити варіант використання, щоб ближче розглянути це питання.

Як експерта з ШІ, включаючи етичні та юридичні наслідки, мене часто просять визначити реалістичні приклади, які демонструють дилему вирівнювання, щоб можна було легше зрозуміти теоретичний характер теми. Однією з найяскравіших областей, яка яскраво представляє цю етичну проблему ШІ, є поява справжніх самокерованих автомобілів на основі AI. Це буде зручним прикладом використання або прикладом для широкого обговорення цієї теми.

Тоді ось важливе питання, яке варто обдумати: Чи містить поява справжнього самокерованого автомобіля на основі штучного інтелекту будь-які нестандартні міркування етичного ШІ, які, як правило, не заперечуються або недостатньо висвітлені?

Дозвольте мені трохи розкрити питання.

По-перше, зауважте, що в справжньому самокерованому автомобілі немає водія-людини. Майте на увазі, що справжні самокеровані автомобілі керуються за допомогою системи водіння AI. За кермом не потрібен водій-людина, а також не передбачено, щоб людина могла керувати транспортним засобом. Щоб дізнатися більше про автономні транспортні засоби (AV) і особливо безпілотні автомобілі, перегляньте посилання тут.

Я хотів би додатково пояснити, що мається на увазі, коли я маю на увазі справжні самокеровані автомобілі.

Розуміння рівнів самокерованих автомобілів

Як уточнення, справжні самокеровані машини - це ті, що ШІ керує автомобілем повністю самостійно, і жодна допомога людини під час водіння відсутня.

Ці транспортні засоби без водія вважаються рівнем 4 та 5 (див. Моє пояснення за цим посиланням тут), тоді як автомобіль, для якого водій-людина повинен спільно розподіляти зусилля водіння, зазвичай розглядається на рівні 2 або 3. Автомобілі, які спільне водіння описується як напівавтономне і, як правило, містить безліч автоматизованих доповнень, які називаються ADAS (вдосконалені системи допомоги водієві).

На Рівні 5 ще немає справжнього автомобіля, що самостійно керує, про який ми ще не знаємо, чи цього вдасться досягти, і скільки часу це займе, щоб дістатися туди.

Тим часом зусилля рівня 4 поступово намагаються наблизитись, проходячи дуже вузькі та вибіркові випробування на громадських дорогах, хоча існують суперечки щодо того, чи слід дозволяти це тестування як таке (ми всі морські свинки, які живуть або загинули в експерименті) Деякі стверджують, що відбуваються на наших магістралях та об’їзних шляхах, див. моє висвітлення за цим посиланням тут).

Оскільки для напівавтономних автомобілів потрібен водій людини, прийняття цих типів автомобілів не буде помітно відрізнятися від керування звичайними транспортними засобами, тому на цій темі не так вже й багато нового (хоча, як ви побачите через мить наступні пункти, як правило, застосовуються).

Для напівавтономних автомобілів важливо, щоб громадськість попередила про тривожний аспект, що виникає останнім часом, а саме: незважаючи на тих водіїв, які постійно публікують відеозаписи, засинаючи за кермом автомобіля рівня 2 або 3 рівня , ми всі повинні уникати того, щоб не вводити в оману вірити, що водій може відняти їхню увагу від завдання водіння під час керування напівавтономним автомобілем.

Ви несете відповідальну сторону за рушійні дії транспортного засобу, незалежно від того, наскільки автоматизація може бути перекинута на рівень 2 або 3 рівень.

Автомобілі без водія та сторонники чи вигнанці етичних міркувань штучного інтелекту

Для справжніх автомобілів рівня 4 та рівня 5, у водінні завдання не буде брати участь людина-водій.

Усі пасажири будуть пасажирами.

AI робить водіння.

Один аспект, який слід негайно обговорити, передбачає той факт, що ШІ, який бере участь у сучасних системах керування ШІ, не є розумним. Іншими словами, ШІ в цілому є колективом комп’ютерного програмування та алгоритмів, і, безперечно, він не в змозі міркувати так само, як це може людина.

Чому цей додатковий акцент на тому, що ШІ не є розумним?

Оскільки я хочу підкреслити, що, обговорюючи роль системи керування ШІ, я не приписую людські якості ШІ. Будь ласка, майте на увазі, що нині існує тривала та небезпечна тенденція до антропоморфізації ШІ. По суті, люди призначають сьогоднішній ШІ схожий на людину розум, незважаючи на незаперечний та беззаперечний факт, що такого ШІ ще не існує.

З цим роз’ясненням ви можете передбачити, що система водіння ШІ не буде якось “знати” про аспекти водіння. Водіння та все, що воно спричиняє, повинні бути запрограмовані як частина апаратного та програмного забезпечення самокерованого автомобіля.

Давайте зануримось у безліч аспектів, які виникають на цю тему.

По-перше, важливо усвідомити, що не всі самокеровані автомобілі з штучним інтелектом однакові. Кожен виробник автомобілів і технологічна фірма, що займаються самокеруванням, використовують свій підхід до розробки самокерованих автомобілів. Таким чином, важко робити розгорнуті заяви про те, що будуть робити, а що не робитимуть системи керування ШІ.

Крім того, щоразу, коли заявляють, що система керування штучним інтелектом не робить якоїсь конкретної речі, це згодом може бути обігнате розробниками, які насправді програмують комп’ютер на таку саму річ. Поступово системи керування ШІ поступово вдосконалюються та розширюються. Існуюче сьогодні обмеження може більше не існувати в майбутній ітерації або версії системи.

Я сподіваюся, що це дає достатню кількість застережень, щоб підтвердити те, про що я збираюся розповісти.

Зараз ми готові глибоко зануритися в безпілотні автомобілі та про те, чи нібито не вирішуються будь-які нестандартні міркування щодо радикального етичного ШІ.

Через обмеженість простору давайте зосередимося на одному конкретному питанні, яке ми можемо потім розглянути. Зокрема, існує загальне звинувачення в тому, що панівна етика ШІ нібито має приховане припущення, що ШІ неминучий.

Якщо ми застосуємо цю ключову презумпцію до самокерованих автомобілів на базі штучного інтелекту, це означатиме, що спільнота Ethical AI загалом припускає, що самокеровані автомобілі неминуче будуть розроблені та використані. Вони вважають за чисту ціну, що з'являться безпілотні автомобілі, тоді як зустрічний позов полягав у тому, що вони повинні НЕ робити це приховане припущення і натомість пережовувати, що, можливо, нам не слід мати безпілотних автомобілів з штучним інтелектом (або якийсь варіант, наприклад, якщо вони є лише в особливих обставинах, а не на широкому засаді).

Це чудове запитання.

Щоб уточнити та повторити, твердження, що переважаючими міркуваннями етичного ШІ щодо самокерованих автомобілів AI не вистачає, мабуть, припускаючи, що машини, що працюють із штучним інтелектом, неминучі. У такому способі мислення очікування виявлялося б подвійним:

1. Мало, якщо якісь перевірки щодо того, чи повинні ми взагалі мати безпілотні автомобілі з штучним інтелектом, існуватиме, чи буде шунтовано в сторону, чи не буде повітря, щоб привернути будь-яке яскраве світло, і

2. Ймовірна зосередженість на AI безпілотних автомобілях натомість буде зосереджена на деталях, пов’язаних з етичними розгалуженнями штучного інтелекту від традиційного списку факторів, таких як зрозумілість, справедливість, конфіденційність тощо, і взагалі робити це під загальним виглядом або без звуку припущення, що ми будемо мати ці хвалені автономні транспортні засоби (без жодного іншого варіанту, який широко розважається).

Цікава пропозиція.

Навіть випадкова перевірка загальної уваги до таких проблем, пов’язаних із самокерованими автомобілями з штучним інтелектом, продемонструє, що існує припущення, що безпілотні автомобілі з штучним інтелектом є дещо неминучими, хоча давайте переконаємося, що велике застереження та попереджувальний індикатор із подвійною зірочкою. разом із цією розгорнутою заявою.

Ось чому.

Поки що ми не знаємо, чи справді безпілотні автомобілі на основі штучного інтелекту стануть цілком можливими.

Звичайно, там проводяться вузько розроблені випробування на дорогах загального користування. Вони абсолютно не на рівні 5. Ніхто не може аргументовано стверджувати протилежне щодо цього незаперечного пункту. Можна сказати, що деякі правильні випробування начебто переходять на рівень 4, але хиткі й з відносно крихкими ODD (ODD або Operation Design Domains — це положення, де виробник автомобілебудівного автомобіля заявляє, що його автономний автомобіль може безпечно працювати , дивіться моє обговорення за цим посиланням тут).

З огляду на це, арена самокерованих автомобілів знаходиться набагато далі, ніж це було всього кілька років тому. Є розумні причини для оптимізму щодо того, що станеться далі. Найбільша проблема – це розклад, коли це відбудеться. Попередні прогнози експертів легко з’явилися і зникли. Можна очікувати, що існуючі прогнози точно спіткає та ж доля.

Коротше кажучи, здавалося б, неформально можна було б сказати, що є достатнє обгрунтування для припущення, що в кінцевому підсумку з’являться справжні самокеровані автомобілі на основі штучного інтелекту. Здавалося б, ми рухаємося до рівня 4 серед дуже обмежених ODD. Здавалося б, наступне логічне розширення включатиме більше ODD, більш різноманітних і глибинних. На якомусь етапі, коли ми завоювали достатньо перекриваються та дещо вичерпних сфер ODD, це, здавалося б, завершиться обережним переходом до рівня 5. Це принаймні поетапна філософія очікуваного прогресу (яку не всі сприймають).

Я згадую про ці, здавалося б, складні викривлення, тому що існує велика плутанина щодо того, що означає заявити про існування справжнього самокерованого автомобіля на основі штучного інтелекту або про те, що ми досягли грандіозного моменту їхнього існування. Яке ваше визначення справжнього самокерованого автомобіля на основі штучного інтелекту? Якщо ви скажете, що це момент, коли ви перейшли на рівень 4, я думаю, ви можете почати лопати ці пляшки шампанського. Якщо ви скажете, що це сталося, коли ми перейшли за ріг на рівні 4, вам доведеться покласти ці пляшки шампанського на зберігання. Якщо ви скажете, що це сталося, коли ми освоїли рівень 5, ці пляшки потрапляють на задню частину полиць для зберігання, і ви повинні очікувати, що вони запиляться.

Загалом, якщо суспільство фактично робить припущення, що безпілотні автомобілі з штучним інтелектом неминучі, ви могли б обгрунтовано стверджувати, що це надзвичайне припущення. Не всі погодяться з цим твердженням, тому для тих із вас, хто засмучений передбачуваною можливістю, ваша гостра незгода є такою відзначеною.

Чи ми потенційно можемо потрапити в біду або в жахливе становище, загалом погоджуючись із цим припущенням про неминучість для автомобілів, що самостійно керують штучним інтелектом?

Є інтригуючі повороти, які ця загадка виносить на поверхню.

Наприклад, одна вже часто обговорювана проблема полягає в тому, що у нас можуть бути самокеровані автомобілі на основі штучного інтелекту, які доступні виключно в деяких областях, але не в інших. Райони, де будуть безпілотні автомобілі, є тими, хто їх має, тоді як райони, де їх немає, є тими, хто не має можливості використовувати переваги самокерованих автомобілів.

Це проголошене елітарний або ясправедливість феноменологічне занепокоєння, яке висловлювали багато. Справді, я багато разів розповідав про це, наприклад, за цим посиланням тут і в цьому більшому аналізі за посиланням тут.

Ідея полягає в тому, що безпілотні автомобілі з штучним інтелектом, ймовірно, будуть експлуатуватися в автопарках. Оператори автопарку вибиратимуть, де розмістити свої безпілотні автомобілі. Імовірне місце для отримання грошей для використання безпілотних автомобілів знаходиться в заможніших частинах міста чи міста. Ті, хто живе в бідних або бідних частинах міста чи міста, не матимуть доступу до самокерованих автомобілів.

Така ж логіка екстраполюється, щоб стверджувати, що країни також опиняться в такому ж скрутному становищі. Заможніші країни відчують використання самокерованих автомобілів, а бідніші — ні. Люди, які мають, матимуть більше доступу та використання автономних транспортних засобів, ті, хто не мають, не матимуть.

Вам може бути цікаво, що отримують ті, хто має, а не мають. Часто вказує на те, що очікується, що автомобілі без водія з штучним інтелектом будуть мати набагато менше аварій і зіткнень. Вважається, що кількість постраждалих і смертельних випадків внаслідок ДТП різко зменшиться. Таким чином, багатші частини містечка або багатші країни зможуть скоротити свої травми та смертельні випадки, пов’язані з автомобілями, тоді як регіони, керовані людиною, які не мають можливості або заміни за допомогою штучного інтелекту - водіння автомобілів не побачить такого відповідного скорочення.

Будь ласка, знайте, що існують інші рекламовані переваги безпілотних автомобілів з штучним інтелектом, які так само будуть накопичуватися в тих, хто має, а не в тих, хто не має (докладніше дивіться за цим посиланням тут).

Суть тут полягає в тому, що ви можете розширити фразу «чи безпілотні автомобілі неминучі», вказавши на те, що Ethical AI вже стверджує, що самокеровані автомобілі доступні лише вибірково. Я знаю, що це може здатися кренделі логіки. Це говорить про те, що ми вже особливо стурбовані тим, що ШІ недоступний у деяких сегментах суспільства. У цьому відрізку мислення цей екземпляр ШІ не є неминучим щодо цих контекстів як таких (якщо ви зрозумієте дрейф).

Висновок

Ви, безсумнівно, знайомі з розумно вигаданою мудрою порадою про те, що те, чого ви не знаєте, може зашкодити вам, а те, чого ви не знаєте, чого ви не знаєте, може справді знищити вас.

Одна точка зору щодо радикальної етичної позиції ШІ полягає в тому, що, незважаючи на будь-яке збентеження, пов’язане з іменами, ми повинні принаймні почути те, що, як вважають, ми втрачаємо. Можливо, має місце групове мислення, і так званий звичайний етичний AI або старомодна етика штучного інтелекту зумів затриматися та застрягти на певних міркуваннях. Якщо так, удар ногою в задню частину може допомогти знову запустити двигуни та рухатися до розширеного прицілу.

Або, можливо, Ethical AI та AI Ethics працюють добре, велике дякую, і це відгалуження просто намагається бути мухою в дегті. Недолік не здається особливо руйнівним або збентеженим. Коли або якщо щось виходить з-під контролю, побожна та узгоджена переоцінка царства може виявитися дуже корисною.

Постійне вдосконалення є похвальним прагненням. І ви можете майже безперечно стверджувати, що коли справа доходить до появи ШІ, ми не хочемо з запізненням виявити, що ми не знали того, чого не знали, і що ми повинні були знати, що ми на вершині аспекти, які ми не знали (або, що ми їх знали, дещо й ненавмисно придушили).

Це не здається надто радикальним, чи не так?

Джерело: https://www.forbes.com/sites/lanceeliot/2022/02/20/pushing-the-boundaries-of-ai-ethics-into-the-topsy-turvy-world-of-radical-ethical- ai-potential-exemplified-via-the-use-case-of-hvaned-ai-based-self-driving-cars/