Етика штучного інтелекту та законодавство щодо штучного інтелекту стверджують, що впровадження юридичної аргументації в штучний інтелект може вдало досягти узгодження людських цінностей

У сьогоднішній колонці я збираюся об’єднати безліч, здавалося б, різнорідних тем, пов’язаних зі штучним інтелектом, в одну гарно сплетену тканину.

Чи готові ви?

Уявіть, що ви використовуєте програму на основі ШІ, яка допомагає вам виконувати якесь важливе завдання. Можливо, справа фінансова або може бути пов'язана зі здоров'ям. Суть полягає в тому, що ви покладаєтеся на те, що штучний інтелект робитиме правильні речі та працюватиме безпечно та безпечно.

Припустімо, що ШІ повертає на неетичну територію.

Ви можете не усвідомлювати, що штучний інтелект робить це.

Наприклад, штучний інтелект може покладатися на потенційно приховані дискримінаційні фактори, такі як раса чи стать, хоча ви можете не мати жодних життєздатних засобів розпізнати неналежне використання. Ось ви, абсолютно самотні, тримаєте коротку палицю за допомогою штучного інтелекту, який або був розроблений із самого початку в проблематичний спосіб, або зумів спрямувати на ризиковані та межові етичні загрози (я скажу більше про це за мить).

Що ви можете зробити або що можна зробити щодо ШІ, який вирішив піти неетичним шляхом?

Крім того, що я намагався заздалегідь сконструювати штучний інтелект таким чином, щоб він не здійснював подібних підступних дій, я раніше також деталізував, що існує зростаючий інтерес до вбудовування Етична перевірка ШІ компонент у зростаючому трясовині Дикого Заходу. Ідея полягає в тому, що, щоб спробувати запобігти виникненню етичних аспектів програми, наповненої штучним інтелектом, ми могли б використати додатковий штучний інтелект для перевірки та врівноваження. Цей доданий ШІ може бути за межами цільової програми ШІ або може бути компонентом, вбудованим або імплантованим безпосередньо в ШІ, який ми хочемо перевірити.

Як я вже казав раніше, див посилання тут: «Тенденція, що нещодавно виникла, полягає в тому, щоб намагатися вбудувати в штучний інтелект етичні бар’єри, які будуть ловити, коли решта системи ШІ починає виходити за встановлені етичні межі. У певному сенсі мета полягає в тому, щоб використовувати сам штучний інтелект, щоб уникнути етичних помилок. Можна сказати, що ми прагнемо змусити штучний інтелект самолікуватись» (Ленс Еліот, «Створення етичного штучного інтелекту, який стежить за неетичним штучним інтелектом і намагається утримати поганий штучний інтелект від дій», Forbes, 28 березня 2022 р.).

Ви також можете зацікавитися моєю книгою ШІ-боти-охоронці, який іноді називають ангелами-охоронцями, який охоплює технічну основу цього найсучаснішого вбудованого штучного інтелекту в штучному інтелекті подвійної перевірки, див. посилання тут.

Підсумок полягає в тому, що ваш бекон, на щастя, може бути врятований завдяки використанню вбудованого штучного інтелекту, який перевіряє етику, який був розроблений і імплантований у програму штучного інтелекту, яку ви використовуєте. Але чи вистачить цього для опікуна, щоб справді переконатися, що штучний інтелект не зробить вас повністю жорстким і не ризикне зайти навіть на шкідливу територію?

Розумієте, програма штучного інтелекту може працювати нібито незаконний акти.

Одна справа мати ШІ, який потрапляє в сіру зону того, що ми вважаємо етичною чи неетичною поведінкою. Не менш тривожна поведінка та ймовірне погіршення занепокоєння тягне за собою штучний інтелект, який просто перескакує акулу й опускається в погану темряву відверто незаконних дій.

Незаконний штучний інтелект – це погано. Дозволяти незаконному штучному інтелекту залишатися без нагляду погано. Деякі правознавці відверто стурбовані тим, що поява та всепоширеність штучного інтелекту поступово й жахливо підірвуть нашу подобу верховенство права, перегляньте мій аналіз на посилання тут.

Зачекайте секунду, можливо, скажете ви.

Ви можете подумати, що розробники ШІ будуть ніколи запрограмувати свій штучний інтелект на порушення закону. Неймовірно. Лише злі лиходії робили б це (до речі, пам’ятайте, що є ті, хто навмисно розробляє та використовує штучний інтелект для злих цілей, що стає все більшою сферою інтересу для злочинців та інших, хто бажає використовувати штучний інтелект для підлих дій).

Вибачте, але припустити, що всі розробники штучного інтелекту, які не є злими, будуть суворо стежити за тим, щоб їхній штучний інтелект був повністю законослухняним. Цілком можливо, що штучний інтелект самостійно пристосовується та починає незаконну діяльність. Звичайно, також існує ймовірність того, що розробники штучного інтелекту або хотіли, щоб ШІ діяв незаконно, або вони не знали, що таке незаконні та законні дії, коли вони створювали ШІ (так, це цілком можливо, а саме, що цілеспрямована повністю технологічна команда штучного інтелекту може не знати про юридичні махінації свого штучного інтелекту, що не можна вибачити, але трапляється з тривожною частотою).

Що можна зробити з цього приводу?

Знову ж таки, окрім спроби переконатися, що зовнішній штучний інтелект є залізним і законним, додатковий підхід до набуття потужності передбачає вбудовування або імплантацію компонента штучного інтелекту, який виконує законну подвійну перевірку решти програми штучного інтелекту. Цей доданий штучний інтелект спостерігає за рештою штучного інтелекту, намагаючись визначити, чи збирається ШІ стати шахраєм або принаймні переступити межі законодавчих чи регулятивних обмежень.

Тепер ми маємо два типи подвійної перевірки AI, які потенційно вбудовані в програму AI:

  • Подвійна перевірка етики ШІ: У режимі реального часу цей компонент або надбудова ШІ оцінює решту ШІ на предмет етичної та неетичної поведінки, яку демонструє ШІ
  • AI Legal подвійна перевірка: У режимі реального часу цей компонент або надбудова штучного інтелекту оцінює решту штучного інтелекту, щоб переконатися, що він залишається в межах законних наріжних каменів і виявляє нові незаконні дії ШІ.

Щоб уточнити, це відносно нові концепції, і тому штучний інтелект, який ви використовуєте сьогодні, може бути в будь-якому з цих поточних умов:

  • AI, який взагалі не містить подвійних перевірок
  • Штучний інтелект, який містить засіб подвійної перевірки етики штучного інтелекту, але не містить інших засобів подвійної перевірки
  • Штучний інтелект, який включає юридичну подвійну перевірку AI, але не має інших подвійних перевірок
  • AI, який має подвійну перевірку AI Ethics і AI Legal подвійної перевірки
  • Інше

Існують деякі помітно складні аспекти роботи обох інструментів подвійної перевірки AI Ethics і AI Legal, які працюють пліч-о-пліч у програмі AI як рідні брат і сестра. Це тип дуалізму, який може бути важче координувати, ніж ви могли б припустити (я думаю, ми всі знаємо, що брати і сестри можуть мати найтісніші зв’язки, хоча вони також можуть час від часу сваритися, як Діккенс, і енергійно протистояти перегляди).

Я довго обговорював цей тип труднощів дуалізм: «Знехтуваний дуалізм має місце в ШІ заради соціального блага, пов’язаний із відсутністю охоплення як ролі штучної моральної волі, так і штучного правового обґрунтування в передових системах ШІ. Зусилля дослідників і розробників штучного інтелекту, як правило, зосереджені на тому, як створювати та вбудовувати штучних моральних агентів, щоб керувати прийняттям моральних рішень, коли система штучного інтелекту працює в полі, але також не зосереджені на та поєднанні з використанням можливостей штучного правового аргументування. , який однаково необхідний для надійних моральних і правових результатів» (Ленс Еліот, «Знехтуваний дуалізм штучної моральної волі та штучного правового обґрунтування в AI для соціального блага», Щорічна конференція CRCS Гарвардського університету 2020 р., Гарвардський центр досліджень і обчислювального товариства)

Якщо ви хочете поміркувати про те, чому може виникнути напруга між перевіряючим етику штучного інтелекту та перевіряючим правовий аспект штучного інтелекту, ви можете знайти цю приголомшливу цитату концептуальної цінності: «Закон може дозволяти певні дії, навіть якщо цей вчинок є аморальним; і закон може забороняти вчинок, навіть якщо цей вчинок є морально допустимим або навіть морально необхідним» (Шеллі Каган, Межі моралі, 1998).

Давайте трохи перемістимо наш фокус і подивимося, як ці подвійні перевірки вписуються в іншу тему штучного інтелекту, яка ретельно вивчається, а саме Відповідальний ШІ або узгодженого розгляду узгодження людських цінностей і ШІ.

Загальна думка полягає в тому, що нам потрібен ШІ, який дотримується правильних і бажаних людських цінностей. Деякі називають це як Відповідальний ШІ. Інші так само дискутують Підзвітний ШІ, Надійний ШІ та Вирівнювання AI, усі вони стосуються одного наріжного принципу. Мою дискусію щодо цих важливих питань див посилання тут та посилання тут, просто назвемо декілька.

Як ми можемо змусити ШІ узгодити людські цінності?

Як було запропоновано раніше, ми сподіваємося, що розробники штучного інтелекту будуть знати про розробку штучного інтелекту, який досягає дотримання відповідального штучного інтелекту. На жаль, вони могли б і не з огляду на причини, з’ясовані раніше. Крім того, вони можуть спробувати це зробити, але тим не менше штучний інтелект в кінцевому підсумку самоналаштовується за межі основної сфери етичної поведінки або, можливо, в незаконні води.

Гаразд, тоді нам потрібно розглянути наші зручні денді подвійні перевірки як засіб укріплення цих ризиків і ризиків. Використання добре розробленого інструменту подвійної перевірки етики штучного інтелекту може суттєво допомогти узгодити ШІ з людськими цінностями. Подібним чином, використання добре розробленої правової подвійної перевірки штучного інтелекту може суттєво допомогти узгодити ШІ з людськими цінностями.

Таким чином, ключовим і ще не дуже відомим засобом досягнення відповідального ШІ, надійного ШІ, підзвітного ШІ, узгодження ШІ тощо буде використання засобів подвійної перевірки ШІ, таких як подвійна перевірка етики ШІ та Юридичний інструмент подвійної перевірки штучного інтелекту, який невтомно працює як подвійна перевірка штучного інтелекту, у який він вбудований.

У цьому обговоренні я хотів би трохи детальніше зупинитися на природі та конструкціях правової подвійної перевірки AI, які можуть бути вбудовані в AI. Для цього може бути корисно поділитися з вами додатковими відомостями про загальну тему ШІ та право.

Для безглуздої перевірки того, як штучний інтелект і закон поєднуються один з одним, перегляньте моє обговорення на посилання тут. У моєму проникливому погляді на ШІ та право зв’язку, я надаю цю просту концепцію двох основних способів взаємозв’язку ШІ та закону:

  • (1) Закон, що застосовується до ШІ: Формулювання, прийняття та виконання законів, які застосовуються до регулювання чи управління штучним інтелектом у нашому суспільстві
  • (2) AI-applied to-Law: Технологія штучного інтелекту, розроблена та застосована в законодавстві, включаючи правову аргументацію на основі штучного інтелекту (AILR), введену у високотехнологічні програми LegalTech для автономного або напівавтономного виконання адвокатських завдань

Перша перерахована точка зору складається з розгляду того, як існуючі та нові закони керуватимуть ШІ. Друга перерахована перспектива стосується застосування ШІ до закону.

Ця остання категорія зазвичай передбачає використання юридичних міркувань на основі ШІ (AILR) у різних онлайн-інструментах, якими користуються юристи. Наприклад, штучний інтелект може бути частиною пакета керування життєвим циклом контракту (CLM), який допомагає юристам, визначаючи договірні формулювання, які будуть корисними для складання нових контрактів, або може виявляти контракти, які мають юридично хибні формулювання, які допускають нещасні випадки або юридичні лазівки. (щодо мого погляду на так звані «запахи закону», які може розпізнати ШІ, див посилання тут).

Ми неминуче застосуємо штучний інтелект до закону, який стане доступним для використання широким загалом і який не вимагає наявності адвоката в курсі. На даний момент через різноманітні обмеження, зокрема UPL (несанкціонована юридична практика), надання додатків для юридичних консультацій на основі штучного інтелекту є складним і суперечливим питанням. Перегляньте моє обговорення на посилання тут.

Я згадав цей вступ про штучний інтелект і право, щоб зазначити, що ще одним інструментальним використанням штучного інтелекту, застосованого до закону, було б створення юридичних подвійних перевірок ШІ.

Так, той самий вид технологічної майстерності, який використовується для застосування штучного інтелекту до закону, може виконувати подвійний обов’язок, використовуючи штучний інтелект як вбудовану або імплантовану юридичну подвійну перевірку штучного інтелекту. Правова подвійна перевірка штучного інтелекту – це компонент, який має знати юридичні аспекти. Коли решта програми штучного інтелекту виконує різні дії, перевірка AI Legal перевіряє, чи програма штучного інтелекту робить це законно та в межах законних обмежень.

Компонент подвійної перевірки AI Legal не обов’язково повинен охоплювати всю палітру всього, що потрібно знати про закон. Залежно від характеру програми штучного інтелекту щодо мети та дій штучного інтелекту в цілому, перевірка правової подвійної перевірки штучного інтелекту може бути набагато вужчою з точки зору юридичної експертизи, яку вона містить.

Я визначив корисну структуру для демонстрації того, як штучний інтелект у юридичній сфері охоплює серію автономних можливостей, відомих як рівні автономії (LoA). Для огляду дивіться мій Forbes публікація колонки від 21 листопада 2022 р. «Безглуздий вичерпний переконливий аргумент, чому юристам потрібно знати про ШІ та закон» на посилання тут, а для детального технічного опису перегляньте мою статтю про поглиблене дослідження в MIT Computational Law Journal від 7 грудня 2021 р. див посилання тут.

Структура пояснює п’ять рівнів штучного інтелекту, які використовуються в юридичних справах:

  • Рівень 0: відсутність автоматизації для юридичної роботи на основі ШІ
  • Рівень 1: Проста автоматизація допомоги для юридичної роботи на основі ШІ
  • Рівень 2: розширена автоматизація допомоги для юридичної роботи на основі ШІ
  • Рівень 3: напівавтономна автоматизація юридичної роботи на основі ШІ
  • Рівень 4: автономний домен для юридичної роботи на основі ШІ
  • Рівень 5: повністю автономний для юридичної роботи на основі ШІ

Я коротко опишу їх тут.

Рівень 0 вважається рівнем без автоматизації. Юридичні міркування та юридичні завдання виконуються за допомогою ручних методів і в основному відбуваються за допомогою паперових підходів.

Рівень 1 складається з простої автоматизації допомоги для юридичних міркувань ШІ. Приклади цієї категорії включають використання повсякденної комп’ютерної обробки текстів, використання повсякденних комп’ютерних електронних таблиць, доступ до юридичних документів онлайн, які зберігаються та витягуються в електронному вигляді, тощо.

Рівень 2 складається з розширеної автоматизації допомоги для юридичних міркувань ШІ. Приклади цієї категорії можуть включати використання елементарної обробки природної мови (NLP) у стилі запитів, спрощених елементів машинного навчання (ML), інструментів статистичного аналізу для передбачення судових справ тощо.

Рівень 3 складається з напівавтономної автоматизації правових міркувань ШІ. Приклади цієї категорії можуть включати використання передових систем на основі знань (KBS) для юридичних міркувань, використання машинного та глибокого навчання (ML/DL) для юридичних міркувань, передового НЛП тощо.

Рівень 4 складається з доменних автономних комп’ютерних систем для юридичних міркувань ШІ. На цьому рівні повторно використовується концептуальне поняття доменів оперативного проектування (ODD), яке використовується для безпілотних автомобілів, але в юридичній сфері. Правові сфери можна класифікувати за функціональними сферами, наприклад сімейне право, право нерухомості, законодавство про банкрутство, екологічне право, податкове право тощо.

Рівень 5 складається з повністю автономних комп’ютерних систем для юридичних міркувань ШІ. У певному сенсі рівень 5 є надмножиною рівня 4 з точки зору охоплення всіх можливих правових областей. Будь ласка, зрозумійте, що це досить велике завдання.

Ви можете уявити собі ці рівні автономії нарівні з аналогічним використанням під час обговорення безпілотних автомобілів і автономних транспортних засобів (також на основі офіційного стандарту SAE, див. моє висвітлення на посилання тут). У нас ще немає безпілотних автомобілів рівня 5 SAE. Ми переходимо до безпілотних автомобілів рівня 4 SAE. Більшість звичайних автомобілів мають рівень SAE 2, тоді як деякі з нових автомобілів переходять на рівень SAE 3.

У юридичній сфері ми ще не маємо рівня 5 AILR. Ми торкаємось якогось Рівня 4, хоча й у надзвичайно вузьких ODD. Рівень 3 починає виходити на світ, тоді як основа AILR сьогодні переважно на рівні 2.

Нещодавня дослідницька стаття про штучний інтелект у застосуванні до закону висунула типізацію, відому як Закон Інформує Кодекс. Дослідник стверджує: «Одна з першочергових цілей Закон Інформує Кодекс програма полягає в тому, щоб навчити штучний інтелект слідувати духу закону» (Джон Дж. Най, «Код закону інформує: підхід правової інформатики до узгодження штучного інтелекту з людьми», Північно-західний журнал технологій та інтелектуальної власності, Том 20, вийде). Є кілька важливих міркувань, які Закон Інформує Кодекс мантра відкриває, і я проведу вас через кілька з цих ключових правил.

Перш ніж занурюватися в тему, я хотів би спершу закласти деякі основні основи щодо штучного інтелекту, зокрема етики штучного інтелекту та законодавства про штучний інтелект, зробивши це, щоб переконатися, що обговорення буде контекстуальним.

Зростання обізнаності про етичний штучний інтелект, а також законодавство про штучний інтелект

Нещодавня ера штучного інтелекту спочатку розглядалася як така ШІ для добра, що означає, що ми можемо використовувати ШІ для покращення людства. На п'ятах ШІ для добра прийшло усвідомлення, що ми також занурені в ШІ для поганого. Це стосується штучного інтелекту, створеного або зміненого самостійно таким чином, щоб бути дискримінаційним, і робить обчислювальний вибір із зайвими упередженнями. Іноді штучний інтелект побудований таким чином, а в інших випадках він повертає на цю непривабливу територію.

Я хочу переконатися, що ми знаходимося на одній сторінці щодо природи сучасного ШІ.

Сьогодні немає жодного штучного інтелекту, який був би розумним. У нас цього немає. Ми не знаємо, чи буде можливий розумний ШІ. Ніхто не може влучно передбачити, чи досягнемо ми розумного ШІ, ані чи стане розумний ШІ якимось дивом спонтанно виникнути у формі обчислювальної когнітивної наднової (як правило, її називають сингулярністю, див. моє висвітлення на посилання тут).

Тип ШІ, на якому я зосереджуюсь, складається з нерозумного ШІ, який ми маємо сьогодні. Якби ми захотіли дико міркувати про розумний ШІ, ця дискусія могла б піти в радикально іншому напрямку. Розумний штучний інтелект мав би відповідати людській якості. Вам слід враховувати, що розумний ШІ є когнітивним еквівалентом людини. Більше того, оскільки деякі припускають, що ми можемо мати суперінтелектуальний ШІ, цілком можливо, що такий ШІ може стати розумнішим за людей (щодо мого дослідження суперінтелектуального ШІ як можливості див. висвітлення тут).

Я настійно пропоную, щоб ми трималися приземлених речей і розглянули сучасний обчислювальний нерозумний ШІ.

Зрозумійте, що сучасний AI не здатний «мислити» будь-яким чином нарівні з людським мисленням. Коли ви взаємодієте з Alexa або Siri, розмовні здібності можуть здатися схожими на людські здібності, але реальність така, що вони обчислювальні й позбавлені людського пізнання. Остання ера ШІ широко використовує машинне навчання (ML) і глибоке навчання (DL), які використовують узгодження обчислювальних шаблонів. Це призвело до систем штучного інтелекту, які мають вигляд людських схильностей. Тим часом, сьогодні немає жодного штучного інтелекту, який мав би вигляд здорового глузду і не мав би жодного когнітивного дива міцного людського мислення.

Будьте дуже обережні з антропоморфізацією сучасного ШІ.

ML/DL є формою узгодження обчислювальних шаблонів. Звичайний підхід полягає в тому, що ви збираєте дані про завдання прийняття рішення. Ви подаєте дані в моделі комп’ютерів ML/DL. Ці моделі прагнуть знайти математичні закономірності. Після виявлення таких закономірностей, якщо вони знайдені, система ШІ використовуватиме ці шаблони під час зустрічі з новими даними. Після представлення нових даних шаблони, засновані на «старих» або історичних даних, застосовуються для прийняття поточного рішення.

Я думаю, ви можете здогадатися, куди це веде. Якщо люди, які приймали рішення за зразком, включали упередження, ймовірно, дані відображають це тонким, але значущим чином. Машинне навчання або глибоке навчання обчислювальний шаблон зіставлення буде просто намагатися математично імітувати дані відповідно. Немає жодної видимості здорового глузду чи інших розумних аспектів моделювання, створеного AI, як такого.

Крім того, розробники ШІ також можуть не усвідомлювати, що відбувається. Таємнича математика в ML/DL може ускладнити виявлення прихованих упереджень. Ви справедливо сподіваєтесь і очікуєте, що розробники ШІ перевірять потенційно приховані упередження, хоча це складніше, ніж може здатися. Існує серйозна ймовірність того, що навіть за відносно великого тестування в моделях зіставлення шаблонів ML/DL все ще будуть присутні упередження.

Ви могли б трохи використати відоме чи сумнозвісне прислів’я «сміття в сміття – виходить». Справа в тому, що це більше схоже на упередження, які підступно вливаються, коли упередження занурюються в ШІ. Алгоритм прийняття рішень (ADM) ШІ аксіоматично стає обтяженим несправедливістю.

Не добре.

Усе це має дуже значний вплив на етику штучного інтелекту та пропонує зручне вікно в отримані уроки (навіть до того, як усі уроки відбудуться), коли справа доходить до спроб законодавчого впровадження штучного інтелекту.

Окрім застосування принципів етики штучного інтелекту в цілому, виникає відповідне питання про те, чи повинні ми мати закони, які регулюватимуть різні види використання ШІ. На федеральному, штатному та місцевому рівнях приймаються нові закони, які стосуються діапазону та характеру розробки ШІ. Зусилля щодо розробки та прийняття таких законів є поступовими. Етика штучного інтелекту служить принаймні тимчасовим засобом і майже напевно певною мірою буде безпосередньо включена в ці нові закони.

Майте на увазі, що деякі категорично стверджують, що нам не потрібні нові закони, які стосуються ШІ, і що наших існуючих законів достатньо. Вони попереджають, що якщо ми все-таки запровадимо деякі з цих законів щодо штучного інтелекту, ми вб’ємо золотого гусака, пригнічуючи досягнення ШІ, які пропонують величезні переваги для суспільства.

У попередніх колонках я розповідав про різні національні та міжнародні спроби розробити та прийняти закони, що регулюють ШІ, див. посилання тут, наприклад. Я також розглянув різні принципи та настанови етики штучного інтелекту, які визначили та прийняли різні країни, включаючи, наприклад, зусилля Організації Об’єднаних Націй, такі як набір етики штучного інтелекту ЮНЕСКО, який прийняли майже 200 країн, див. посилання тут.

Ось корисний ключовий список етичних критеріїв або характеристик систем штучного інтелекту, які я раніше детально досліджував:

  • прозорість
  • Справедливість і справедливість
  • Незлочинність
  • Відповідальність
  • Конфіденційність
  • Вигода
  • Свобода і автономія
  • Довіряйте
  • Sustainability
  • Гідність
  • Солідарність

Ці принципи етики штучного інтелекту повинні щиро використовуватися розробниками штучного інтелекту, а також тими, хто керує розробкою штучного інтелекту, і навіть тими, хто в кінцевому підсумку розміщує та підтримує системи штучного інтелекту.

Усі зацікавлені сторони протягом усього життєвого циклу розробки та використання штучного інтелекту враховуються в межах дотримання встановлених норм етичного штучного інтелекту. Це важливий момент, оскільки звичайне припущення полягає в тому, що «лише кодери» або ті, хто програмує ШІ, підлягають дотриманню понять етики ШІ. Як наголошувалося вище, для розробки та впровадження штучного інтелекту потрібне село, і для цього все село має знати та дотримуватися правил етики штучного інтелекту.

Я також нещодавно перевірив Білль про права AI це офіційна назва офіційного документа уряду США під назвою «Проект Білля про права на штучний інтелект: щоб автоматизовані системи працювали на користь американського народу», який став результатом річних зусиль Управління науково-технічної політики (OSTP). ). OSTP є федеральним органом, який надає консультації американському президенту та виконавчому офісу США з різних технологічних, наукових та інженерних аспектів національного значення. У цьому сенсі ви можете сказати, що цей Білль про права на штучний інтелект є документом, схваленим і схваленим існуючим Білим домом США.

У Біллі про права штучного інтелекту є п’ять ключових категорій:

  • Безпечні та ефективні системи
  • Алгоритмічний захист від дискримінації
  • Конфіденційність даних
  • Повідомлення та пояснення
  • Людські альтернативи, розгляд і резервний варіант

Я уважно переглянув ці правила, бачите посилання тут.

Тепер, коли я заклав корисну основу для цих тем, пов’язаних із етикою штучного інтелекту та законодавством про штучний інтелект, ми готові перейти до п’янкої теми правової подвійної перевірки штучного інтелекту та царства Закон Інформує Кодекс.

Юридичні засоби подвійної перевірки AI, вбудовані в AI для вирівнювання людських цінностей

Я іноді звертаюся до AI Legal Double-Checkers через абревіатуру AI-LDC. Це трохи візуально дивує тих, хто не знайомий із абревіатурою. Таким чином, я не буду використовувати цю абревіатуру в цьому обговоренні, але хотів би згадати про це вам, щоб попередити.

Щоб розкрити деякі складності AI Legal подвійної перевірки, давайте розглянемо ці основні моменти:

  • Використання AI Legal подвійної перевірки як механізм вирівнювання людських цінностей AI
  • Більш розширений штучний інтелект, відповідно, вимагатиме більш надійних юридичних перевірок штучного інтелекту
  • Юридичні перевіряльники штучного інтелекту приймають закони, зокрема, не приймають закони (імовірно)
  • Делікатний баланс між ШІ Правове втілення закону як правил і стандартів
  • Вимагати доказів, коли йдеться про дотримання закону ШІ

У зв’язку з обмеженням місця я поки зупинюся лише на цих п’яти пунктах, але, будь ласка, стежте за подальшим висвітленням у моїй колонці, яка охоплюватиме додаткові та не менш важливі міркування щодо цих питань, що швидко розвиваються та рухаються вперед.

Прямо зараз пристебніть ремінь безпеки та готуйтеся до підбадьорливої ​​подорожі.

  • Використання AI Legal подвійної перевірки як механізм вирівнювання людських цінностей AI

Є багато способів спробувати досягти гармонійного співвіднесення між ШІ та людськими цінностями.

Як згадувалося раніше, ми можемо створювати та оприлюднювати принципи етики штучного інтелекту та прагнути змусити розробників штучного інтелекту та тих, хто розробляє та керує штучним інтелектом, дотримуватися цих ключових каменів. На жаль, тільки це не допоможе. У вас є деякі дизайнери, які неминуче не зрозуміють повідомлення. У вас є деякі конструктори, які будуть хизуватися етичним штучним інтелектом і намагатися обійти дещо безглузді встановлені принципи. І так далі.

Використання підходів «м’якого права», що передбачає етику штучного інтелекту, має майже невідворотно поєднуватися з напрямками «жорсткого права», такими як ухвалення законів і нормативних актів, які надсилатимуть потужний сигнал усім, хто створює або використовує ШІ. Довга рука закону може прийти до вас, якщо ви не будете розумно використовувати ШІ. Звук стуку в'язничних дверей міг привернути гостру увагу.

Однак великою проблемою є те, що інколи двері сараю вже випустили коней. Виявлений штучний інтелект потенційно буде здійснювати різного роду незаконні дії й продовжуватиме робити це доти, доки його не спіймають, а й коли якісь правоохоронні органи нарешті зроблять кроки, щоб зупинити потік незаконних дій. Все це може зайняти час. Тим часом люди тим чи іншим чином зазнають шкоди.

У цей набіг приходить перевірка подвійної перевірки AI Legal.

Перебуваючи в програмі штучного інтелекту, юридична перевірка штучного інтелекту може негайно виявити, коли штучний інтелект порушує закон. Юридичний засіб подвійної перевірки AI Legal може зупинити ШІ на місці. Або компонент може попереджати людей про виявлені незаконні дії, роблячи це своєчасно, що може спонукати наглядачів до термінових коригувальних дій. Існує також розглянута формалізована реєстрація, яку може створити компонент, забезпечуючи відчутну подобу аудиторського сліду з метою кодифікації несприятливих дій штучного інтелекту.

Кажуть, що наші закони є формою багатоагентного конгломерату, так що закони неминуче є сумішшю того, що суспільство намагалося встановити як баланс між ймовірно суперечливими поглядами на правильну та неправильну суспільну поведінку. Тому юридична подвійна перевірка штучного інтелекту, заснована на наших законах, втілює цю суміш.

Примітно, що це більше, ніж просто програмування списку остаточних правових норм. Закони, як правило, більш податливі та прагнуть до всеосяжних стандартів, а не до визначення найменших мікроскопічних правил. Складнощів предостатньо.

Повертаючись до попередньої дослідницької статті, ось як ці міркування також можна розглядати щодо пошуку AI Alignment: «Закон, прикладна філософія багатоагентного вирівнювання, однозначно відповідає цим критеріям. Вирівнювання є проблемою, тому що ми не можемо ex ante визначте правила, які повністю й доведено керують хорошою поведінкою ШІ. Подібним чином сторони юридичного договору не можуть передбачити всі випадки своїх відносин, а законодавці не можуть передбачити конкретні обставини, за яких застосовуватимуться їхні закони. Ось чому більша частина права є сукупністю стандартів» (там само).

Втілити закон у систему подвійної перевірки AI Legal набагато складніше, ніж можна було б припустити на перший погляд.

У міру розвитку штучного інтелекту нам потрібно буде відповідним чином використовувати ці досягнення. Виявляється, що добре для гусака, те добре і для гусака. Ті з нас, хто досягає прогресу в штучному інтелекті у застосуванні до закону, розширюють межі ШІ та, безсумнівно, створюють нові досягнення, які в кінцевому підсумку можуть сприяти прогресу ШІ в цілому.

  • Більш розширений штучний інтелект, відповідно, вимагатиме більш надійних юридичних перевірок штучного інтелекту

Цією темою виступає гамбіт кішки-мишки.

Цілком імовірно, що в міру подальшого розвитку штучного інтелекту будь-який компонент подвійної перевірки юридичного штучного інтелекту справлятиметься з проблемами все важче й важче. Наприклад, програма зі штучним інтелектом, яку перевіряють, може мати нещодавно розроблені супер-приховані способи приховати незаконні дії, які здійснює ШІ. Навіть якщо штучний інтелект не обійде підступним шляхом, загальна складність штучного інтелекту сама по собі може стати серйозною перешкодою для того, щоб отримати повторну перевірку правової перевірки ШІ.

Ось чому це стає особливо важливим.

Припустімо, що розробник штучного інтелекту або якась фірма, яка використовує штучний інтелект, заявляє, що в програму на основі штучного інтелекту вбудовано юридичну подвійну перевірку штучного інтелекту. Вуаля, здається, вони тепер умили руки від будь-яких подальших проблем. Правова подвійна перевірка AI Legal подбає про все.

Не так.

Подвійна подвійна перевірка AI Legal може бути недостатньою для характеру програми AI. Також існує ймовірність того, що юридичний засіб подвійної перевірки штучного інтелекту застаріє, можливо, не оновлюється згідно з останніми законами, що стосуються програми ШІ. Можна передбачити низку причин того, чому проста наявність AI Legal перевірки подвійної перевірки не буде срібною кулею.

Зверніть увагу на ці висновки цитованого раніше дослідження: «У міру розвитку сучасного розвитку штучного інтелекту ми можемо постійно встановлювати вищі планки продемонстрованих можливостей розуміння права. Якщо розробник стверджує, що його система має розширені можливості для вирішення завдань, він повинен продемонструвати відповідне просунуте розуміння права та юридичну аргументацію штучного інтелекту, яка практично не має межі труднощів під час розгляду трясовини законів і правил через час, прецеденти та юрисдикцію. ” (там само).

  • Юридичні перевіряльники штучного інтелекту приймають закони, зокрема, не приймають закони (імовірно)

Я впевнений, що деякі з вас приголомшені ідеєю мати ці AI Legal подвійної перевірки.

Одне з часто висловлюваних занепокоєнь полягає в тому, що ми, очевидно, дозволимо штучному інтелекту вирішувати наші закони за нас. Боже, ви можете подумати, якась частина автоматизації наздожене людство. Ці прокляті вбудовані юридичні перевірки штучного інтелекту стануть королями наших законів за замовчуванням. Що б вони не робили, буде відповідати закону.

Людьми керуватиме ШІ.

І ці юридичні перевірки штучного інтелекту – це слизький шлях, який веде нас туди.

Контраргументом є те, що такі розмови належать до теорій змови. Ви дико постулюєте і вводите себе в хвилювання. Реальність полягає в тому, що ці юридичні перевірячі ШІ не розумні, вони не збираються захоплювати планету, а галас про їхній екзистенційний ризик є просто абсурдним і надзвичайно перебільшеним.

Загалом, залишаючись спокійною та обґрунтованою позицією, ми повинні пам’ятати, що AI Legal подвійної перевірки служить для належного відображення закону, а не задумом і не випадково йти далі, щоб якось замовчувати у шановній сфері створення закон. Залишаючи поза увагою екстраполяцію свідомості, ми, безперечно, можемо погодитися з тим, що існує реальна та нагальна стурбованість тим, що перевірка AI Legal може в кінцевому підсумку спотворити справжню природу певного закону.

У свою чергу, ви можете стверджувати, що таким чином цей конкретний «спотворений» закон, по суті, створюється заново, оскільки він більше не влучно означає те, що передбачалося фактичним законом. Я вірю, що ви відверто бачите, наскільки це тонке, але промовисте міркування. У будь-який момент часу юридична перевірка штучного інтелекту може на віртуальній основі створювати або, скажімо, «галюцинувати» нові закони, просто дивлячись на те, як компонент штучного інтелекту тлумачить закон у початковому вигляді або втіленому в штучному інтелекті (для мого висвітлення). ШІ т. зв галюцинаційСм. посилання тут).

До цього слід звернути увагу.

Щодо цієї теми у вищезазначеному дослідницькому дослідженні пропонується така паралельна думка з точки зору прагнення запобігти перетину цієї священної межі: «Ми не прагнемо, щоб штучний інтелект мав легітимність створювати закони, створювати правовий прецедент або виконувати закони. Насправді це підірвало б наш підхід (і ми повинні докласти значних зусиль, щоб запобігти цьому). Швидше, найамбітніша мета законодавчого кодексу полягає в обчислювальному кодуванні та впровадженні можливості узагальнення існуючих правових концепцій і стандартів у підтверджену продуктивність штучного інтелекту» (там само).

  • Делікатний баланс між ШІ Правове втілення закону як правил і стандартів

Закони безладні.

Майже для будь-якого офіційного закону існує, ймовірно, безліч тлумачень того, що закон передбачає на практиці. Говорячи мовою сфери ШІ, ми називаємо закони семантично неоднозначними. Ось що робить розробку штучного інтелекту у застосуванні до закону таким захоплюючим і водночас неприємним завданням. На відміну від точних цифр, які ви можете побачити, скажімо, у фінансово-орієнтованих програмах ШІ, бажання втілити наші закони в ШІ тягне за собою справу з цунамі семантичних неоднозначностей.

У книзі мого фонду про основи AI Legal Reasoning (AILR) я обговорюю, як попередні спроби просто кодифікувати закони в набір обмежених правил не завели нас так далеко, як хотілося б, у юридичній сфері (див. посилання тут). Сучасний AILR має охоплювати інтеграцію між використанням правил і тим, що можна назвати загальними стандартами, які представляє закон.

Цей важливий баланс можна виразити таким чином: «На практиці більшість правових положень знаходяться десь у спектрі між чистим правилом і чистим стандартом, і юридична теорія може допомогти оцінити правильну комбінацію «правильності» та «стандартності». при визначенні цілей систем ШІ» (там само).

  • Вимагати доказів, коли йдеться про дотримання закону ШІ

Бажати чогось відрізняється від мати щось.

Ця дещиця мудрості виникає, коли ми пропонуємо, що хоча ми можемо захотіти мати AI Legal подвійну перевірку, нам дуже потрібно переконатися, що вони працюють, і працюють правильно. Зауважте, що це ще одна важка та виснажлива перешкода. Раніше я вже розповідав про останні досягнення та проблеми у верифікації та перевірці ШІ, див посилання тут.

Як зазначено в дослідницькій статті: «Щоб усунути прогалину, перш ніж моделі штучного інтелекту будуть розгорнуті в дедалі більших агентських можливостях, наприклад, повністю автономні транспортні засоби на головних дорогах, сторона, яка розгортає, повинна продемонструвати розуміння системою людських цілей, політики та правових стандартів. Процедура перевірки може проілюструвати «розуміння» штучним інтелектом «сенсу» правових концепцій» (там само).

Висновок

Я закликаю вас подумати про те, щоб приєднатися до мене в цьому благородному квесті зі створення та застосування AI Legal перевірки. Нам потрібно більше уваги та ресурсів, присвячених цій доброчесній справі.

Це також забезпечує подвійний обов’язок, як згадувалося раніше, щодо досягнення AI Legal Reasoning (AILR), який можна використовувати для допомоги адвокатам і потенційно використовувати безпосередньо широкою громадськістю. Дійсно, дехто рішуче стверджує, що єдиним життєздатним засобом досягнення більш повного відчуття доступу до правосуддя (A2J) буде створення штучного інтелекту, який втілює правові можливості та доступний для всіх.

Наразі один короткий підсумковий пункт.

У ході дискусії досі підкреслювалося, що AI Legal подвійна перевірка буде вбудована або імплантована в AI. Це справді головна увага тих, хто досліджує та займається цією новою сферою.

Ось питання, над яким варто подумати.

Одягніть свою шапку для мислення.

Чому б не використати AI Legal подвійну перевірку у всьому програмному забезпеченні?

Суть полягає в тому, що, можливо, нам слід розширити нашу точку зору замість того, щоб використовувати виключно юридичні перевірки AI Legal у AI. Будь-яке програмне забезпечення може легально заблукати. Слід визнати, що левову частку уваги привернув штучний інтелект через способи його використання, як-от прийняття важких рішень, які впливають на людей у ​​повсякденному житті. Хоча ви можете легко стверджувати, що існує багато систем, які не є штучним інтелектом, які роблять те саме.

По суті, ми не повинні дозволяти будь-якому програмному забезпеченню користуватися безкоштовним проїздом, щоб уникнути чи уникнути закону.

Пам’ятайте також, що раніше я згадував дві категорії поєднання ШІ та закону. У цьому документі ми зосередилися на застосуванні ШІ до закону. З іншого боку медалі – застосування закону до ШІ. Припустімо, що ми приймаємо закони, які вимагають використання AI Legal подвійної перевірки.

Спочатку це може стосуватися систем штучного інтелекту, особливо тих, які вважаються особливо ризикованими. Поступово ту саму вимогу юридичної подвійної перевірки штучного інтелекту можна буде поширити й на програмне забезпечення, що не є штучним інтелектом. Знову ж таки, безкоштовних проїздів.

Поки ви роздумуєте над тим, що було наведено вище, я прикрашу речі як заключний тизер. Якщо ми збираємося вимагати юридичні перевірки штучного інтелекту, ми також могли б зробити те ж саме щодо перевірки етики штучного інтелекту. Використання юридичної подвійної перевірки штучного інтелекту — це лише половина справи, і ми також не можемо нехтувати чи забувати про питання етики штучного інтелекту.

Я закінчу цю жваву розмову однією з моїх улюблених цитат. За мудрими словами Ерла Уоррена, відомого юриста, який був головою судді Сполучених Штатів: «У цивілізованому житті закон плаває в морі етики».

Можливо, було б найкраще завзято використати ці новітні та бурхливі інструменти подвійної перевірки AI Legal і AI Ethics подвійної перевірки, якщо ми хочемо тримати голову над потенційно навислими важкими морями від поганого ШІ та похмурих систем, що не є ШІ, які загрожують нашій безпеці. .

Вони можуть бути рятувальним жилетом людства.

Джерело: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- and-ai-law/