Етика штучного інтелекту збита з пантелику тими фахівцями з етики штучного інтелекту, які «підбурюють» етичні практики ШІ

Останнім часом засолювання було досить часто в новинах.

Я не маю на увазі сіль, яку ви кладете в їжу. Натомість я говорю про «пересолювання», пов’язане з провокаційною та, здавалося б, дуже суперечливою практикою, пов’язаною зі взаємодією праці та бізнесу.

Розумієте, такий вид насадження тягне за собою обставини, за яких особа намагається прийняти на роботу у фірму, щоб нібито ініціювати або дехто може сказати, що спровокувати створення там профспілки. Останні новини, що обговорюють це явище, вказують на такі фірми, як Starbucks, Amazon та інші відомі та навіть менш відомі фірми.

Спершу я розповім про основи підсвічування, а потім перейду до подібної теми, яка може вас застати зненацька, а саме того, що в області штучного інтелекту (ШІ), здається, відбувається своєрідне пересування. Це стосується важливих міркувань етики ШІ. Щоб дізнатися про постійне та широке висвітлення етики ШІ та етики ШІ, див посилання тут та посилання тут, просто назвемо декілька.

Тепер давайте розберемося в основах того, як зазвичай працює засолювання.

Припустимо, що компанія не має жодної профспілки серед працівників. Яким чином профспілка може закріпитися на цій фірмі? Одним із способів було б вжити заходів за межами компанії та спробувати закликати працівників приєднатися до профспілки. Це може включати демонстрацію банерів неподалік від штаб-квартири компанії або надсилання листівок працівникам або використання соціальних мереж тощо.

Це однозначно зовнішній тип підходу.

Іншим шляхом було б підштовхнути зсередини іскру, яка могла б зрушити з місця. Якби принаймні одного працівника можна було залучити як вболівальника за те, що він прийняв профспілку на фірмі, можливо, це поклало б початок можливій внутрішній кавалькаді підтримки профспілки там. Навіть якщо такий працівник не виконував обов’язки відвертого вболівальника, він міг спокійно заручитися внутрішньою підтримкою серед працівників і бути відносно прихованою силою в організації для об’єднання в профспілки.

Зважаючи на такий спосіб мислення, профспілка може розглянути шляхи, за допомогою яких такий працівник може бути таким активним. Профспілка може витратити нескінченну енергію, щоб знайти ту голку в стозі сіна. Можливо, серед сотень чи тисяч працівників фірми виявити так званого обраного, зокрема, який би підтримував об’єднання в профспілку, може бути важко.

Було б корисно легше «відкрити» цього працівника, що викликає іскру (або винайти його, так би мовити).

Це підводить нас до ідеї вуаля, що, можливо, змусити компанію найняти таку людину для повсякденної роботи у фірмі. По суті, імплантуйте у фірму відповідну людину, яка стимулює профспілку. Вам не потрібно намагатися звернутись до натовпу працівників, про які говорять ззовні, і натомість вводити одну активну особу, щоб ви точно знали, що ваша іскра працює там.

Потім новоприйнятий працівник прагне прищепити профспілкову зацікавленість у фірмі, тим часом виконуючи будь-яку роботу, для якої він був найнятий (висловлюючи те, що часто називають «справжнім інтересом» до роботи). Зауважте, що особа активно працює у фірмі та активно виконує роботу, яка вимагається від неї як працівника. У звичайній сфері соління вони не є лише профспілковими неспеціальними працівниками, які, можливо, є частиною компанії.

Деякі проголошують такий підхід.

Вони закликають, що це економить час і ресурси з точки зору профспілки, яка прагне надихнути працівників фірми розглянути можливість вступу до профспілки. Інші співробітники, як правило, з більшою ймовірністю будуть готові вислухати колег і їх активізувати. Альтернативний підхід, коли намагаються ззовні отримати поштовх, вважається менш привабливим, коли колега забезпечує потужну мотивацію для працівників усередині компанії порівняно з деякими «сторонніми особами», яких справді сприймають лише як байдужих і байдужих людей, які просувають порядок денний. аутсайдери.

Не всі задоволені підходом до засолювання.

Компанії часто стверджують, що це надзвичайно підступна та нечесна практика. Загальний гештальт підходу полягає в тому, що шпигун поміщається в середину фірми. Це не те, для чого людину найняли. Ймовірно, їх найняли для виконання заявленої роботи, а натомість усі різноманітні махінації схожі на диявольське імплантування справжнього троянського коня.

Зустрічна претензія профспілок полягає в тому, що якщо особа виконує свою заявлену роботу, то немає ніякої шкоди та фолу. Мабуть, службовець, чи так би мовити будь-який працівник фірми, як правило, може об’єднатися в профспілку. Цей конкретний працівник випадково хоче це зробити. Той факт, що вони прийшли в компанію з цією думкою, — це просто те, про що може також подумати будь-який новоприйнятий працівник.

Секундочку, підприємці заперечать, це хтось такий за дизайном хотів прийти в компанію з метою заснування профспілки. Це їх кероване бажання. Новоприйнятий працівник висміяв процес найму та неналежним чином використовує свої прагнення знайти роботу як прихований вигляд, що надає перевагу профспілці.

Ця гаряча дискусія обертається.

Майте на увазі, що в цих умовах виникає безліч юридичних міркувань. Усілякі правила та положення, які стосуються, наприклад, Національного закону про трудові відносини (NLRA) та Національної ради з трудових відносин (NRLB), є частиною цих гамбітів. Я не хочу, щоб у вас склалося враження, що на цих фронтах все просто. Багато юридичних ускладнень.

Нам також слід подумати про різноманітність варіацій, які приходять із засолюванням.

Візьмемо ймовірність того, що особа, яка бажає прийняти на роботу, відкрито виступає за профспілку протягом усього процесу пошуку роботи на фірмі. Ця особа може з’явитися на співбесіді в сорочці чи іншому одязі, який чітко показує, що вона прихильник профспілки. Під час співбесід вони могли висловити надію, що компанія колись прийме об’єднання в профспілки. тощо

У такому разі дехто стверджував би, що бізнес знав, на що йде. З самого початку компанія мала багато ознак про наміри людини. Ви не можете потім скиглити, якщо після прийняття на роботу новий працівник зробить усе можливе, щоб залучити профспілку до дверей. Фірма собі начебто прострелила ногу, а все інше — крокодилячі сльози.

Проте танець тут знову складніший, ніж здається. Згідно з юридичними проблемами, які можуть виникнути, особа, яка в іншому випадку відповідає кваліфікації для прийняття на роботу, може стверджувати, що її навмисно не помітили через антипрофспілкові упередження компанії, якщо компанія, яка наймає, їй відмовила. Знову NRLA та NRLB втягуються в заплутану справу.

Я швидко проведу вас через низку інших міркувань, які виникають у сфері соління. Я також хотів би, щоб ви знали, що засолювання — це явище не лише в США. Це може відбуватися і в інших країнах. Звичайно, закони та практика різних країн різко відрізняються, і тому соління або не є особливо корисним, або, можливо, навіть повністю заборонено в деяких регіонах, тоді як характер соління може бути суттєво змінений на основі правових і культурних звичаїв і може насправді все ще мають потенцію.

Проконсультуйтеся зі своїм улюбленим адвокатом із трудового права в будь-якій юрисдикції, яка вас цікавить.

Деякі додаткові фактори щодо засолювання включають:

  • Оплата. Іноді профспілка платить особі за виконання завдання щодо працевлаштування на фірму. Тоді вони можуть отримувати гроші як від компанії, так і від профспілки під час роботи у фірмі або більше не отримувати від профспілки після того, як їх найме фірма.
  • Видимість. Інколи під час прийому на роботу людина мовчить про свої наміри щодо об’єднання в профспілку або взагалі мовчить, тоді як в інших випадках вона відкрито говорить про те, що вона збирається робити. Здавалося б, половинчастий підхід полягає в тому, що особа скаже, що вона збирається зробити, якщо її чітко запитають під час співбесіди, і таким чином означає, що саме фірма має виявляти такі наміри, що є тягарем, який, на думку фірм, є підступним потуранням і напружує правові рамки.
  • Терміни. Особа, яка була прийнята на роботу, може зачекати, щоб реалізувати свої профспілкові здібності. Вони потенційно можуть чекати тижнями, місяцями або навіть роками, перш ніж активуватися. Цілком ймовірно, що вони, швидше за все, почнуть роботу, коли звикнуть до фірми та закріпляться як співробітники фірми. Якщо вони почнуть негайно, це може завадити їхнім спробам вважатися інсайдерами та представити їх як зловмисників чи аутсайдерів.
  • Вжиті кроки. Іноді особа явно оголошує у фірмі, що зараз вона прагне об’єднатися в профспілку, що може відбутися незабаром після прийняття на роботу або через деякий час (згідно з моїми вищезазначеними вказівками про фактор часу). З іншого боку, особа може вибрати роль під прикриттям, надаючи інформацію профспілці та не привертаючи до себе уваги. Іноді це критикують як а засолювання крота, хоча інші наголошують, що особа може інакше піддаватися внутрішнім ризикам, якщо висловиться прямо.
  • Перебування на посаді. Людина, яка бере на себе спробу посолити, може врешті-решт мати можливість отримати імпульс об’єднання (вона є «засібником»). Вони потенційно можуть залишатися на фірмі протягом усього процесу об’єднання. Зважаючи на це, інколи така особа вирішує залишити фірму, яка була викликана, і вирішує піти в іншу фірму, щоб заново розпочати активну діяльність. Суперечки з цього приводу є інтенсивними. Одна точка зору полягає в тому, що це чітко демонструє, що людина не мала в своєму серці роботу у фірмі. Протилежна точка зору полягає в тому, що вони, ймовірно, опиниться в каламутній та, можливо, неспроможній воді, залишившись у фірмі, коли зусилля з підтримки профспілок отримають силу.
  • Результат. Спроба посолити не гарантує певного результату. Цілком можливо, що особа підвищить обізнаність про об’єднання в профспілки, і зусилля розпочато, отже, відбулося «успішне» просування. Іншим результатом є те, що людина не може отримати жодної такої тяги. Потім вони або відмовляються від переслідування та залишаються на фірмі, можливо, чекаючи іншого шансу пізніше, або залишають фірму та, як правило, прагнуть зайнятися солінням в іншій компанії.
  • Професійний солевар. Деякі люди вважають себе рішучими прихильниками засолювання і пишаються тим, що, так би мовити, служать солильниками. Вони неодноразово роблять засолювання, переходячи від фірми до фірми. Інші зроблять це одноразово, можливо, через певні переваги або щоб побачити, що це таке, а потім вирішать не повторюватися в такій ролі. Ви напевно можете уявити типи особистого тиску та потенційного стресу, які можуть виникнути, коли ви перебуваєте в солонці.

Цих факторів поки що буде достатньо, щоб висвітлити діапазон і динаміку засолювання. Я перегляну ці фактори в контексті ШІ та етичних міркувань ШІ.

Суть полягає в тому, що деякі люди прагнуть прийняти на роботу у фірму, щоб ініціювати або спонукати до впровадження принципів етики ШІ в компанії. Це їх основна мотивація для того, щоб піти працювати на фірму.

У певному сенсі, вони роблять це не з метою об’єднання профспілок, а натомість «солять», щоб спробувати вкорінити компанію в принципах етики ШІ.

Зараз я скажу про це ще багато.

Перш ніж приступити до розмови з м’ясом і картоплею щодо диких і шерстистих міркувань, що лежать в основі засолювання в контексті штучного інтелекту, давайте викладемо деякі додаткові основи щодо дуже важливих тем. Нам потрібно ненадовго зануритися в етику штучного інтелекту, особливо в появу машинного навчання (ML) і глибокого навчання (DL).

Можливо, ви смутно усвідомлюєте, що сьогодні одним із найгучніших голосів у сфері штучного інтелекту та навіть поза його межами є вимоги до більшої схожості етичного AI. Давайте подивимося, що означає посилання на етику штучного інтелекту та етичний AI. Крім того, ми розглянемо, що я маю на увазі, коли говорю про машинне навчання та глибоке навчання.

Один окремий сегмент або частина етики AI, який привертає велику увагу ЗМІ, складається з AI, який демонструє несприятливі упередження та несправедливість. Ви, напевно, знаєте, що коли почалася остання ера штучного інтелекту, виник величезний сплеск ентузіазму щодо того, що дехто зараз називає ШІ для добра. На жаль, після цього хвилювання ми стали свідками ШІ для поганого. Наприклад, було виявлено, що різні системи розпізнавання обличчя на основі штучного інтелекту містять расові та гендерні упередження, які я обговорював на посилання тут.

Зусилля протистояти ШІ для поганого активно ведуться. До того ж крикливий правової прагнення приборкати протиправні дії, є також істотний поштовх до прийняття Етики ШІ, щоб виправити підлість ШІ. Ідея полягає в тому, що ми повинні прийняти та схвалити ключові етичні принципи ШІ для розробки та впровадження ШІ, роблячи це, щоб підірвати ШІ для поганого і водночас проголошуючи та пропагуючи переваги ШІ для добра.

Що стосується пов’язаної думки, то я прихильник спроб використання штучного інтелекту як частини вирішення проблем, пов’язаних із штучним інтелектом, боротися з вогнем у такий спосіб мислення. Наприклад, ми можемо вбудувати етичні компоненти штучного інтелекту в систему штучного інтелекту, яка буде відстежувати, як решта штучного інтелекту робить речі, і, таким чином, потенційно ловити в режимі реального часу будь-які дискримінаційні зусилля, див. моє обговорення на посилання тут. Ми також могли б мати окрему систему штучного інтелекту, яка діятиме як тип монітора етики AI. Система ШІ служить наглядачем, щоб відстежувати та виявляти, коли інший ШІ потрапляє в неетичну прірву (див. мій аналіз таких можливостей на посилання тут).

Через деякий час я поділюся з вами деякими загальними принципами, що лежать в основі етики ШІ. Подібних списків тут і там плаває багато. Можна сказати, що поки що не існує єдиного списку універсальної привабливості та збігу. Ось така сумна новина. Хороша новина полягає в тому, що принаймні є легкодоступні списки етики AI, і вони, як правило, дуже схожі. Все це говорить про те, що завдяки певній формі аргументованої конвергенції ми знаходимо шлях до загальної спільності того, з чого складається етика ШІ.

По-перше, давайте коротко розглянемо деякі загальні правила етичного штучного інтелекту, щоб проілюструвати, що має бути життєво важливим для тих, хто створює, використовує або використовує AI.

Наприклад, як стверджує Ватикан в Рим закликає до етики ШІ і як я детально розглянув на посилання тут, вони визначили шість основних принципів етики ШІ:

  • Прозорість: В принципі, системи штучного інтелекту повинні бути поясненими
  • Включення: Необхідно враховувати потреби всіх людей, щоб кожен міг отримати вигоду, а всім людям могли бути запропоновані найкращі умови для самовираження та розвитку.
  • Відповідальність: Ті, хто розробляє та впроваджує використання ШІ, повинні діяти відповідально та прозоро
  • Неупередженість: Не творіть і не дійте відповідно до упередженості, захищаючи таким чином справедливість і людську гідність
  • Надійність: Системи AI повинні працювати надійно
  • Безпека та конфіденційність: Системи AI повинні працювати безпечно та поважати конфіденційність користувачів.

Про це йдеться в заяві міністерства оборони США (DoD). Етичні принципи використання штучного інтелекту і як я детально розглянув на посилання тут, це їх шість основних принципів етики ШІ:

  • Відповідальний: Персонал Міністерства оборони буде проявляти належний рівень розсудливості та уважності, залишаючись відповідальним за розробку, розгортання та використання можливостей штучного інтелекту.
  • Справедливий: Департамент вживатиме свідомих заходів, щоб мінімізувати ненавмисне упередження в можливостях ШІ.
  • Відстежується: Можливості Департаменту в галузі штучного інтелекту будуть розроблені та розгорнуті таким чином, щоб відповідний персонал володів належним розумінням технології, процесів розробки та операційних методів, застосовних до можливостей штучного інтелекту, включаючи прозорі та піддані аудиту методології, джерела даних, а також процедуру та документацію проектування.
  • надійність: Можливості Департаменту штучного інтелекту будуть мати чітке, чітко визначене використання, а безпека, безпека та ефективність таких можливостей будуть підлягати тестуванню та гарантії в межах цих визначених видів використання протягом усього їхнього життєвого циклу.
  • Керований: Департамент буде розробляти та розробляти можливості штучного інтелекту для виконання своїх призначених функцій, маючи при цьому здатність виявляти й уникати непередбачених наслідків, а також здатність відключати або деактивувати розгорнуті системи, які демонструють ненавмисне поведінку.

Я також обговорював різноманітні колективні аналізи принципів етики ШІ, у тому числі охоплюючи набір, розроблений дослідниками, який розглянув і стиснув суть численних національних і міжнародних принципів етики ШІ в статті під назвою «Глобальний ландшафт етичних принципів ШІ» (опублікований в природа), і що моє висвітлення досліджується на посилання тут, що призвело до цього списку ключових каменів:

  • прозорість
  • Справедливість і справедливість
  • Незлочинність
  • Відповідальність
  • Конфіденційність
  • Вигода
  • Свобода і автономія
  • Довіряйте
  • Sustainability
  • Гідність
  • Солідарність

Як ви можете прямо здогадатися, спробувати визначити особливості, що лежать в основі цих принципів, може бути надзвичайно важко зробити. Більше того, спроба перетворити ці загальні принципи на щось цілком відчутне і досить детальне, щоб використовувати його при створенні систем штучного інтелекту, також є міцним горіхом. Загалом легко пояснити, що таке заповіді етики штучного інтелекту та як їх слід дотримуватись, в той час як набагато складніша ситуація в кодуванні AI — це справжня гумка, яка зустрічає дорогу.

Принципи етики штучного інтелекту мають використовуватися розробниками штучного інтелекту, а також тими, хто керує розробкою штучного інтелекту, і навіть тими, хто в кінцевому підсумку займається технічним обслуговуванням систем ШІ. Усі зацікавлені сторони протягом усього життєвого циклу розробки та використання ШІ розглядаються в рамках дотримання встановлених норм етичного ШІ. Це важливий момент, оскільки звичайне припущення полягає в тому, що «лише кодери» або ті, хто програмує ШІ, підлягають дотриманню концепцій етики ШІ. Як було сказано раніше, для розробки та використання штучного інтелекту потрібне село, і для цього все село має бути обізнаним і дотримуватися правил етики ШІ.

Давайте також переконаємося, що ми на одній сторінці щодо природи сьогоднішнього ШІ.

Сьогодні немає жодного штучного інтелекту, який був би розумним. У нас цього немає. Ми не знаємо, чи буде можливий розумний ШІ. Ніхто не може влучно передбачити, чи досягнемо ми розумного ШІ, ані чи стане розумний ШІ якимось дивом спонтанно виникнути у формі обчислювальної когнітивної наднової (як правило, її називають сингулярністю, див. моє висвітлення на посилання тут).

Тип штучного інтелекту, на якому я зосереджуюсь, складається з нерозумного ШІ, який ми маємо сьогодні. Якби ми хотіли дико спекулювати про розумний ШІ, ця дискусія може піти в кардинально іншому напрямку. Розумний ШІ нібито мав би людську якість. Вам потрібно враховувати, що розумний ШІ є когнітивним еквівалентом людини. Більш того, оскільки деякі припускають, що ми можемо мати надрозумний ШІ, цілком можливо, що такий ШІ може виявитися розумнішим за людей (щодо мого дослідження суперінтелектуального ШІ як можливості див. висвітлення тут).

Давайте зробимо все більш приземленим і розглянемо сьогоднішній обчислювальний нерозумний ШІ.

Зрозумійте, що сучасний AI не здатний «мислити» будь-яким чином нарівні з людським мисленням. Коли ви взаємодієте з Alexa або Siri, розмовні здібності можуть здатися схожими на людські здібності, але реальність така, що вони обчислювальні й позбавлені людського пізнання. Остання ера ШІ широко використовує машинне навчання (ML) і глибоке навчання (DL), які використовують узгодження обчислювальних шаблонів. Це призвело до систем штучного інтелекту, які мають вигляд людських схильностей. Тим часом, сьогодні немає жодного штучного інтелекту, який мав би вигляд здорового глузду і не мав би жодного когнітивного дива міцного людського мислення.

ML/DL є формою узгодження обчислювальних шаблонів. Звичайний підхід полягає в тому, що ви збираєте дані про завдання прийняття рішення. Ви подаєте дані в моделі комп’ютерів ML/DL. Ці моделі прагнуть знайти математичні закономірності. Після виявлення таких закономірностей, якщо вони знайдені, система ШІ використовуватиме ці шаблони під час зустрічі з новими даними. Після представлення нових даних шаблони, засновані на «старих» або історичних даних, застосовуються для прийняття поточного рішення.

Я думаю, ви можете здогадатися, куди це веде. Якщо люди, які приймали рішення за зразком, включали упередження, ймовірно, дані відображають це тонким, але значущим чином. Машинне навчання або глибоке навчання обчислювальний шаблон зіставлення буде просто намагатися математично імітувати дані відповідно. Немає жодної видимості здорового глузду чи інших розумних аспектів моделювання, створеного AI, як такого.

Крім того, розробники ШІ також можуть не усвідомлювати, що відбувається. Таємна математика в ML/DL може ускладнити виявлення прихованих упереджень. Ви по праву сподіваєтесь і очікуєте, що розробники AI перевірять потенційно приховані упередження, хоча це складніше, ніж може здатися. Існує велика ймовірність того, що навіть при відносно обширному тестуванні в моделях зіставлення шаблонів ML/DL все ще будуть упередження.

Ви могли б трохи використати відоме чи сумнозвісне прислів’я «сміття в сміття – виходить». Справа в тому, що це більше схоже на упередження, які підступно вливаються, коли упередження занурюються в ШІ. Алгоритм прийняття рішень (ADM) ШІ аксіоматично стає обтяженим несправедливістю.

Не добре.

Давайте повернемося до нашої уваги до засолювання в контексті ШІ.

По-перше, ми видаляємо будь-яку подобу елемента об’єднання з термінології соління, а натомість використовуємо соління лише як узагальнену парадигму або підхід як шаблон. Тому, будь ласка, відкладіть аспекти, пов’язані з профспілками, для цілей цієї дискусії, пов’язаної зі штучним інтелектом.

По-друге, як уже згадувалося раніше, пересадка в цьому контексті штучного інтелекту означає, що деякі люди можуть прагнути отримати роботу у фірмі, щоб ініціювати або стимулювати встановлення принципів етики штучного інтелекту в компанії. Це їх основна мотивація для того, щоб піти працювати на фірму.

Щоб уточнити, є абсолютно багато тих, хто влаштовується на роботу в фірму, і вони вже розуміють, що етика штучного інтелекту важлива. Однак це не є першорядною основою для того, щоб вони намагалися найняти конкретну фірму, яка їх цікавить. По суті, їх збираються найняти для виконання певної роботи з розробки або розгортання штучного інтелекту, і для цього вони сприяють міцній вірі в етичний штучний інтелект.

Тоді вони працюватимуть якомога найкраще, щоб впроваджувати або надихати на дотримання етики штучного інтелекту в компанії. Добре для них. Нам потрібно більше людей, які мають це як щире щире бажання.

Але це не те посолювання, про яке я тут натякаю. Уявіть, що хтось обирає конкретну компанію, яка, здається, не робить багато, якщо щось робить, пов’язане з впровадженням етики ШІ. Людина вирішує, що її візьмуть на роботу в цю фірму, якщо вона зможе це робити в повсякденній роботі зі штучним інтелектом (або, можливо, навіть на посаді, яка не пов’язана зі штучним інтелектом), і тоді її головною метою буде встановлення або запровадження принципів етики штучного інтелекту в компанії. Це не є їхнім основним службовим обов’язком і навіть не входить до переліку їхніх посадових обов’язків (я згадую про це, оскільки, очевидно, якщо когось наймають, щоб навмисно досягти етики штучного інтелекту, вони не «солять» у спосіб конотації та видимості, наведеної тут).

Цю людину не особливо цікавить робота сама по собі. Звичайно, вони виконають будь-яку роботу, і, ймовірно, мають відповідну кваліфікацію для цього. Тим часом їхня справжня мета полягає в тому, щоб стимулювати етичний штучний інтелект стати невід’ємною частиною фірми. Це місія. Це мета. Сама робота є лише засобом або транспортним засобом, який дозволяє їм робити це зсередини.

Ви можете сказати, що вони могли б зробити те саме поза фірмою. Вони могли б спробувати лобіювати команди штучного інтелекту в компанії, щоб вони більше залучалися до етики штучного інтелекту. Вони можуть спробувати присоромити фірму, щоб вона зробила це, можливо, опублікувавши повідомлення в блогах або зробивши інші кроки. І так далі. Справа в тому, що вони все одно будуть аутсайдерами, як було зазначено раніше, обговорюючи основну передумову соління.

Чи обманює людина, яка надає штучний інтелект?

Нам знову пригадується те саме запитання про унійний контекст соління. Людина може наполягати, що обману немає взагалі. Їх найняли виконувати роботу. Вони виконують свою роботу. Так сталося, що крім того, вони є внутрішніми захисниками етики штучного інтелекту та докладають усіх зусиль, щоб спонукати інших робити те саме. Без шкоди, без фолу.

Ймовірно, вони також зазначили б, що немає жодних особливих недоліків у тому, щоб вони спонукали фірму до Етичного ШІ. Зрештою, це допоможе компанії потенційно уникнути судових позовів, які могли б виникнути, якщо штучний інтелект створюється без дотримання правил етики штучного інтелекту. Таким чином вони рятують компанію від неї самої. Незважаючи на те, що людині, можливо, не дуже важливо виконувати поставлену перед нею роботу, вона виконує роботу й водночас робить компанію мудрішою та безпечнішою за допомогою гучного поштовху до етичного ШІ.

Зачекайте секундочку, якась репліка, ця людина нещира. Вони, схоже, збираються стрибнути з корабля, коли відбудеться прийняття Етики ШІ. Їхнє серце не в фірмі і не в роботі. Вони використовують компанію для просування власної мети. Звичайно, порядок денний здається досить хорошим, прагнучи отримати Етичний ШІ на вершині розуму, але це може зайти занадто далеко.

Розумієте, далі стверджується, що пошук етики штучного інтелекту може стати занадто завзятим. Якщо людина прийшла, щоб запровадити етичний штучний інтелект, вона може не бачити ширшої картини того, з чим має справу фірма в цілому. За винятком усього іншого, ця особа може короткозоро відволікати увагу фірми та не бажати дозволити прийняття етики ШІ на обґрунтованій основі та з розумною швидкістю.

Вони можуть стати руйнівним невдоволенням, яке постійно сперечається про те, де займає фірма з точки зору етичних принципів ШІ. Інші розробники штучного інтелекту можуть відволіктися на балаканину. Безумовно, доцільно включати етику штучного інтелекту, хоча театральність та інші потенційні збої всередині фірми можуть завадити прогресу етики штучного інтелекту, а не сприяти йому.

Кругом ідемо.

Тепер ми можемо переглянути ті додаткові фактори щодо засолювання, які я пропонував раніше:

  • Оплата. Цілком можливо, що особі може спочатку заплатити якась організація, яка хоче змусити фірму прийняти етику штучного інтелекту, можливо, з метою зробити це нешкідливо або, можливо, щоб продати фірмі певний набір інструментів або практик етики штучного інтелекту. Загалом малоймовірно, але варто згадати.
  • Видимість. Людина може особливо не згадувати свою віддану місію етики ШІ під час найму. В інших випадках вони можуть подбати про те, щоб це було попереду й у центрі, щоб фірма, яка наймає персонал, зрозуміла без будь-яких двозначностей щодо їхньої побожної спрямованості. Хоча це, швидше за все, буде сформульовано так, ніби етика штучного інтелекту є другорядною проблемою, а робота є їх основною турботою, а не навпаки.
  • Терміни. Особа, яка була прийнята на роботу, може зачекати, щоб розпочати свою етику ШІ. Вони потенційно можуть чекати тижнями, місяцями або навіть роками, перш ніж активуватися. Цілком імовірно, що вони, швидше за все, почнуть роботу, коли звикнуть до фірми та встановлять особисту опору як співробітник фірми. Якщо вони почнуть негайно, це може завадити їхнім спробам вважатися інсайдерами та представити їх як зловмисників чи аутсайдерів.
  • Вжиті кроки. Іноді особа явно оголошує у фірмі, що тепер вона прагне привернути увагу до етики штучного інтелекту, що може статися незабаром після прийняття на роботу або через деякий час (згідно з моїми вищевказівками щодо фактору часу). З іншого боку, особа може вибрати роль під прикриттям, тихо працюючи у фірмі та не привертаючи до себе особливої ​​уваги. Вони також можуть надавати інформацію пресі та іншим стороннім особам про те, які упущення або недоліки етики штучного інтелекту мають місце у фірмі.
  • Перебування на посаді. Людина, яка бере на себе зусилля, може закінчитися тим, що зможе отримати поштовх до етики штучного інтелекту. Потенційно вони можуть залишатися у фірмі протягом усього процесу впровадження Етичного ШІ. Зважаючи на це, інколи така особа вирішує залишити фірму, яка була викликана, і вирішує піти в іншу фірму, щоб заново розпочати активну діяльність. Суперечки з цього приводу є інтенсивними. Одна точка зору полягає в тому, що це чітко демонструє, що людина не мала в своєму серці роботу у фірмі. Протилежна точка зору полягає в тому, що вони, ймовірно, опиниться в каламутній і, можливо, неспроможній воді, залишившись у фірмі, якщо тепер їх позначать як гучних голосів або порушників порядку.
  • Результат. Спроба посолити не гарантує певного результату. Можливо, людина підвищує обізнаність про етичний штучний інтелект, і зусилля починаються, отже, відбулося «успішне» просування. Іншим результатом є те, що людина не може отримати жодної такої тяги. Потім вони або відмовляються від переслідування та залишаються на фірмі, можливо, чекаючи іншого шансу пізніше, або залишають фірму та, як правило, прагнуть зайнятися солінням в іншій компанії.
  • Професійний солевар. Деякі люди можуть вважати себе сильними прихильниками етики штучного інтелекту. Вони неодноразово роблять засолювання, переходячи від фірми до фірми. Інші можуть зробити це одноразово, можливо, через певні переваги або щоб побачити, що це таке, а потім вирішити не повторюватися в такій ролі. Ви напевно можете уявити типи особистого тиску та потенційного стресу, які можуть виникнути, коли ви перебуваєте в солонці.

Чи зачепить цей вид штучного інтелекту, орієнтований на етику, ще невідомо. Якщо фірми повільно сприяють етичному штучному інтелекту, це може змусити фахівців з етики штучного інтелекту взятися за спроби підкріпити. Вони можуть не зовсім усвідомлювати безпосередньо, що роблять засолювання. Іншими словами, хтось приходить у компанію X і намагається привернути увагу до етики штучного інтелекту, можливо, робить це, і розуміє, що має зробити те саме в іншому місці. Потім вони переходять до компанії Y. Промийте та повторіть.

Знову ж таки, наголошується на тому, що дотримання етики штучного інтелекту є їхнім головним пріоритетом. Отримання роботи є другорядним або навіть не дуже важливим, окрім можливості проникнути всередину та зробити внутрішні зусилля, пов’язані з етичним ШІ.

Я також додам, що ті, хто вивчає та аналізує аспекти етики штучного інтелекту, тепер мають дещо нове доповнення до тем дослідження етичних досліджень ШІ:

  • Чи слід загалом потурати чи уникати цих зусиль, спрямованих на посилення етики ШІ?
  • Що спонукає тих, хто хотів би виконати соління в цьому контексті ШІ?
  • Як компанії повинні реагувати на сприйнятий акт штучного інтелекту в контексті?
  • Чи будуть розроблені методології, щоб заохочувати подібне засолювання, пов’язане зі штучним інтелектом?
  • І т.д.

Певною мірою саме тому етика ШІ та етичний ШІ є такою важливою темою. Правила етики ШІ змушують нас залишатися пильними. Технологи штучного інтелекту іноді можуть бути стурбовані технологіями, особливо оптимізацією високих технологій. Вони не обов’язково враховують більші суспільні наслідки. Наявність мислення щодо етики штучного інтелекту, яке є невід’ємною частиною розробки та впровадження штучного інтелекту, є життєво важливим для створення належного штучного інтелекту, включаючи (можливо, дивовижно чи іронічно) оцінку того, як етика штучного інтелекту приймається компаніями.

Окрім застосування принципів етики штучного інтелекту в цілому, виникає відповідне питання про те, чи повинні ми мати закони, які регулюватимуть різні види використання ШІ. На федеральному, штатному та місцевому рівнях приймаються нові закони, які стосуються діапазону та характеру розробки ШІ. Зусилля щодо розробки та прийняття таких законів є поступовими. Етика штучного інтелекту служить принаймні тимчасовим засобом і майже напевно певною мірою буде безпосередньо включена в ці нові закони.

Майте на увазі, що деякі категорично стверджують, що нам не потрібні нові закони, які стосуються ШІ, і що наших існуючих законів достатньо. Насправді вони попереджають, що якщо ми все-таки запровадимо деякі з цих законів щодо ШІ, ми вб’ємо золотого гусака, пригнічуючи досягнення ШІ, які дають величезні переваги для суспільства.

На цьому етапі цієї вагомої дискусії, я б повірив, ви прагнете отримати деякі ілюстративні приклади, які могли б продемонструвати цю тему. Є особливий і напевно популярний набір прикладів, які мені близькі. Розумієте, як експерта з ШІ, включаючи етичні та юридичні наслідки, мене часто просять визначити реалістичні приклади, які демонструють дилеми етики ШІ, щоб можна було легше зрозуміти теоретичний характер теми. Однією з найяскравіших областей, яка яскраво представляє цю етичну проблему ШІ, є поява справжніх самокерованих автомобілів на основі AI. Це буде зручним прикладом використання або прикладом для широкого обговорення цієї теми.

Тоді ось важливе питання, яке варто обдумати: Чи просвітлює поява справжніх безпілотних автомобілів на основі штучного інтелекту щось про пов’язане з штучним інтелектом соління, і якщо так, то що це демонструє?

Дозвольте мені трохи розкрити питання.

По-перше, зауважте, що в справжньому самокерованому автомобілі немає водія-людини. Майте на увазі, що справжні самокеровані автомобілі керуються за допомогою системи водіння AI. Немає потреби в водієві-людині за кермом, а також не передбачено, щоб людина могла керувати транспортним засобом. Для мого широкого й постійного висвітлення автономних транспортних засобів (AV) і особливо самокерованих автомобілів див. посилання тут.

Я хотів би додатково пояснити, що мається на увазі, коли я маю на увазі справжні самокеровані автомобілі.

Розуміння рівнів самокерованих автомобілів

Як уточнення, справжні самокеровані автомобілі - це ті, де ШІ керує автомобілем повністю самостійно, і під час водіння немає жодної допомоги з боку людини.

Ці транспортні засоби без водія вважаються рівнями 4 і 5 (див. моє пояснення на Це посилання тут), в той час як автомобіль, який вимагає, щоб водій-людина спільно керував зусиллям, зазвичай розглядається на рівні 2 або рівня 3. Автомобілі, які спільно виконують завдання водіння, описуються як напівавтономні та зазвичай містять різноманітні автоматизовані надбудови, які називаються ADAS (Advanced Driver-Assist Systems).

На 5-му рівні ще немає справжнього самокерованого автомобіля, і ми ще навіть не знаємо, чи вдасться цього досягти, ані скільки часу знадобиться, щоб дістатися до нього.

Тим часом зусилля рівня 4 поступово намагаються отримати деяку тягу, проходячи дуже вузькі та вибіркові випробування на дорозі, хоча існують суперечки щодо того, чи слід дозволити це тестування як таке (всі ми є піддослідними свинками на життя чи смерть у експерименті дехто стверджує, що відбувається на наших автомагістралях і проїжджих шляхах, див Це посилання тут).

Оскільки для напівавтономних автомобілів потрібен водій людини, прийняття цих типів автомобілів не буде помітно відрізнятися від керування звичайними транспортними засобами, тому на цій темі не так вже й багато нового (хоча, як ви побачите через мить наступні пункти, як правило, застосовуються).

Для напівавтономних автомобілів важливо, щоб громадськість попередила про тривожний аспект, що виникає останнім часом, а саме: незважаючи на тих водіїв, які постійно публікують відеозаписи, засинаючи за кермом автомобіля рівня 2 або 3 рівня , ми всі повинні уникати того, щоб не вводити в оману вірити, що водій може відняти їхню увагу від завдання водіння під час керування напівавтономним автомобілем.

Ви несете відповідальну сторону за рушійні дії транспортного засобу, незалежно від того, наскільки автоматизація може бути перекинута на рівень 2 або 3 рівень.

Етика безпілотних автомобілів і ШІ

Для справжніх автомобілів рівня 4 та рівня 5, у водінні завдання не буде брати участь людина-водій.

Усі пасажири будуть пасажирами.

AI робить водіння.

Один аспект, який слід негайно обговорити, передбачає той факт, що ШІ, який бере участь у сучасних системах керування ШІ, не є розумним. Іншими словами, ШІ в цілому є колективом комп’ютерного програмування та алгоритмів, і, безперечно, він не в змозі міркувати так само, як це може людина.

Чому цей додатковий акцент на тому, що ШІ не є розумним?

Оскільки я хочу підкреслити, що, обговорюючи роль системи керування ШІ, я не приписую людські якості ШІ. Будь ласка, майте на увазі, що нині існує тривала та небезпечна тенденція до антропоморфізації ШІ. По суті, люди призначають сьогоднішній ШІ схожий на людину розум, незважаючи на незаперечний та беззаперечний факт, що такого ШІ ще не існує.

З цим роз’ясненням ви можете передбачити, що система водіння ШІ не буде якось “знати” про аспекти водіння. Водіння та все, що воно спричиняє, повинні бути запрограмовані як частина апаратного та програмного забезпечення самокерованого автомобіля.

Давайте зануримось у безліч аспектів, які виникають на цю тему.

По-перше, важливо усвідомити, що не всі самокеровані автомобілі з штучним інтелектом однакові. Кожен виробник автомобілів і технологічна фірма, що займаються самокеруванням, використовують свій підхід до розробки самокерованих автомобілів. Таким чином, важко робити розгорнуті заяви про те, що будуть робити, а що не робитимуть системи керування ШІ.

Крім того, щоразу, коли заявляють, що система керування штучним інтелектом не робить якоїсь конкретної речі, це згодом може бути обігнате розробниками, які насправді програмують комп’ютер на таку саму річ. Поступово системи керування ШІ поступово вдосконалюються та розширюються. Існуюче сьогодні обмеження може більше не існувати в майбутній ітерації або версії системи.

Я сподіваюся, що це містить достатню кількість застережень, щоб підтвердити те, що я збираюся розповісти.

Давайте зобразимо сценарій, який демонструє ситуацію, пов’язану зі штучним інтелектом.

Автовиробник, який прагне до розробки повністю автономних безпілотних автомобілів, поспішає з випробуваннями на громадських дорогах. Фірма перебуває під сильним тиском, щоб це зробити. За ними спостерігає ринок, і якщо здається, що вони не є лідерами в розробці безпілотних автомобілів, ціна їхніх акцій відповідно страждає. Крім того, вони вже інвестували мільярди доларів, і інвестори з нетерпінням чекають дня, коли компанія зможе оголосити, що їхні безпілотні автомобілі готові до щоденного комерційного використання.

Розробник ШІ уважно спостерігає здалеку за зусиллями автовиробника. У новинах все частіше можна побачити випадки, коли система водіння штучного інтелекту плутається або допускає помилки. Різні випадки включають зіткнення з іншими автомобілями, зіткнення з велосипедистами та інші важкі інциденти.

Фірма загалом намагається зберігати це мовчання. Розробник штучного інтелекту приватно поспілкувався з деякими інженерами фірми та дізнався, що принципи етики штучного інтелекту в кращому випадку лише на словах. Про моє висвітлення таких питань ухилення компаній від етичного ШІ див посилання тут.

Що збирається робити цей розробник ШІ?

Вони відчувають потребу щось зробити.

Давайте трохи розгалужуємось і розглянемо два шляхи, якими може скористатися цей розробник ШІ.

Один із шляхів полягає в тому, що розробник штучного інтелекту звертається до засобів масової інформації, щоб спробувати висвітлити очевидну відсутність належної уваги до правил етики штучного інтелекту з боку автовиробника. Можливо, цей зацікавлений фахівець зі штучного інтелекту вирішить писати блоги чи відеоблоги, щоб висвітлити ці проблеми. Інша можливість полягає в тому, що вони залучають існуючого члена команди штучного інтелекту стати свого роду інформатором, про що я розповідав на посилання тут.

Цей розробник штучного інтелекту безперечно вважається аутсайдерським підходом.

Інший шлях полягає в тому, що розробник штучного інтелекту вірить у свою інтуїцію, що він зможе зробити більше всередині фірми. Набір навичок розробника штучного інтелекту добре налаштований на аспекти штучного інтелекту, пов’язані з безпілотними автомобілями, і вони можуть легко подати заявку на розміщені вакансії інженера штучного інтелекту в компанії. Розробник AI вирішує це зробити. Крім того, поштовх зосереджено виключно на тому, щоб змусити автовиробника серйозніше поставитися до етичного штучного інтелекту. Сама робота не має особливого значення для цього розробника ШІ, крім того, що тепер вони зможуть переконливо працювати зсередини.

Можливо, розробник штучного інтелекту отримує роботу, але потім виявляє, що існує величезний внутрішній опір, і прагнення до етичного штучного інтелекту є безглуздим. Людина залишає компанію та вирішує націлитися на іншого автовиробника, який може бути більш готовим зрозуміти, чого прагне досягти розробник ШІ. Знову ж таки, вони роблять це, щоб явно досягти міркувань етики штучного інтелекту, а не заради того, що є основою роботи штучного інтелекту.

Висновок

Уявлення про те, що ці спроби, пов’язані зі штучним інтелектом, є формою підсалювання, неодмінно викликатимуть у деяких печію через надмірне використання вже усталеної термінології чи лексики. Солтінг значною мірою вкорінився в профспілковій діяльності, пов’язаній з працею та бізнесом. Спроби перевантажити це слово цими іншими видами, здавалося б, спорідненими видами діяльності, хоча вони зовсім не пов’язані з об’єднанням у профспілки, потенційно можуть ввести в оману та заплутати.

Припустимо, ми придумали інший фразеологізм.

перчити?

Що ж, це, здається, не викликає таких же настроїв, як соління. Це було б важкою боротьбою, щоб спробувати це обумовити та включити в наш повсякденний лексикон мови.

Що б ми не придумали, яку б назву чи крилату фразу не здавалися підходящими, ми знаємо одне напевно. Спроба змусити фірми прийняти етику штучного інтелекту все ще є важкою битвою. Треба спробувати. Спроба повинна бути зроблена правильними способами.

Здається, незалежно від того, з якого боку паркану ви впадете, нам потрібно сприймати цю пораду з певною часткою солі.

Джерело: https://www.forbes.com/sites/lanceeliot/2022/08/13/ai-ethics-flummoxed-by-those-salting-ai-ethicists-that-instigate-ethical-ai-practices/