Політики повинні мати справу з реальними проблемами ШІ

Зосередження на туманному ризику зникнення від штучного інтелекту є небезпечним відволіканням.

Минулого тижня фінансована Кремнієвою долиною група під назвою Center for AI Safety опублікувала заяву з одного речення: «Зменшення ризику зникнення через штучний інтелект повинно бути глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна». Він був підписаний багатьма лідерами галузі та шановними дослідниками ШІ та отримав широке висвітлення в пресі.

Широка реакція на цю заяву була жорсткою. Професор Оксфордського університету Сандра Вахтер заявила, що це був просто рекламний хід. Деякі з більш розумних підписантів, як-от експерт із безпеки Брюс Шнайер, швидко висловили розкаяння підписантів. «Насправді я не думаю, що штучний інтелект становить загрозу для вимирання людства», — сказав Шнайер.

Інші вважали цю заяву справді трюком для збору коштів. Професор соціології Університету Дьюка Кірен Хілі опублікував імітаційний перефраз: «моїм друзям і мені знадобиться ціла вантажівка грантових грошей, щоб пом’якшити буквальні екзистенціальні загрози на рівні видів, пов’язані з цим, як ми нібито створюємо».

Марієтє Шааке, колишній парламентар ЄС, який зараз працює в Центрі кіберполітики Стенфордського університету, припустила, що підтекст заяви полягає в тому, що політики повинні мати справу з екзистенційним ризиком, тоді як керівники підприємств встановлюють фактичні правила використання ШІ. Незважаючи на те, що штучний інтелект може бути новим, за її словами, цей неявний аргумент про те, що лідери індустрії штучного інтелекту «найкраще можуть регулювати ті самі технології, які вони виробляють», — це не що інше, як аргументи, взяті з попереднього використання в соціальних мережах і суперечках щодо криптовалют.

Я вважаю, що апокаліптичні попередження про те, що штучний інтелект стане свідомим і незалежним, відволікають увагу від реальних викликів штучного інтелекту, які вимагають від регулюючих органів посилити виконання чинного законодавства, а від політиків — розглянути можливість перегляду для усунення прогалин у законодавстві.

Шахрайство з використанням ШІ є незаконним, як заявила голова Федеральної торгової комісії Ліна Хан. Агентство вже попередило про використання штучного інтелекту для видавання себе за людей для вчинення відео та телефонного шахрайства. Китай помітив те ж саме і припиняє шахрайство, кероване ШІ. Неясно, чи є тут нові юридичні проблеми, але знадобляться величезні зусилля правоохоронних органів, щоб контролювати цей майбутній потік шахрайства з ШІ. Повне фінансування бюджету агентства в розмірі 590 мільйонів доларів було б набагато продуктивнішим використанням державних грошей, ніж дослідження екзистенційних ризиків ШІ.

Усі справді стурбовані дезінформацією, створеною штучним інтелектом, як-от нещодавнє оголошення «фальшивого Путіна» про те, що Росія зазнала атаки. Маркування може значною мірою зменшити ці ризики. Рекламний ролик Національного комітету Республіканської партії, який пішов після оголошення Байденом про його кандидатуру в президенти, використовував ШІ для створення зображень того, що може статися за нового президентства Байдена, але це було позначено як таке, що зменшило ризик дезінформації.

Прозорість для штучного інтелекту – це політичний плід, за який політики повинні схопитися, як деякі, здається, роблять. Цього тижня віце-президент Європейської комісії Віра Йоурова закликала технологічні компанії маркувати контент, створений штучним інтелектом. У США конгресмен Річі Торрес (DN.Y.) незабаром представить законодавство, яке вимагатиме від таких служб, як ChatGPT, розкривати інформацію про те, що їхні результати були «згенеровані штучним інтелектом».

Авторське право та штучний інтелект – ще один виклик. Потрібна певна ясність щодо компенсації власникам авторських прав за використання їхніх матеріалів для навчання ШІ. У лютому Getty подав до суду на Stability AI у США, заявивши, що компанія AI скопіювала 12 мільйонів зображень Getty без дозволу для навчання свого програмного забезпечення для створення зображень Stable Diffusion AI. Минулого тижня вона попросила лондонський суд заблокувати Stability AI у Великій Британії, оскільки компанія AI порушила авторські права Getty під час навчання своєї системи.

Ці справи будуть розглядатися в суді. Але є гідний аргумент, що власникам авторських прав взагалі не потрібно отримувати компенсацію через добросовісне використання або через те, що для навчання ШІ вилучаються лише незахищені факти та ідеї. Крім того, Директива Європейського Союзу про авторське право на єдиний цифровий ринок від 2019 року містить виняток, який дозволяє видобуток тексту та даних онлайн-матеріалу, захищеного авторським правом, якщо власник авторського права не відмовиться від цього за допомогою технологічних засобів захисту, таких як блокувальник заголовків, щоб запобігти скануванню. Це може охоплювати дані навчання ШІ.

Поточний проект Закону Європейського Союзу про штучний інтелект вимагає розкриття захищених авторським правом робіт, які використовуються в системах навчання ШІ. Схоже, це має на меті дозволити власникам авторських прав скористатися своїм правом відмовитися від аналізу тексту та даних для навчання ШІ. Але це також може бути кроком до чогось далі. Це може призвести до режиму примусової ліцензії, який не дозволить власникам авторських прав блокувати навчання ШІ, але забезпечить їм певну компенсацію за використання їхньої інтелектуальної власності. Вирішення цих проблем із авторським правом вимагатиме зосередженої уваги з боку політиків.

Закон ЄС про штучний інтелект також вимагає, щоб ризиковані системи штучного інтелекту пройшли процес сертифікації, спрямований на те, щоб ризики були адекватно оцінені та прийнято розумні заходи для зменшення. Поточний проект розглядає базові моделі, такі як ChatGPT, як ризиковані системи, що підлягають сертифікації, потенційний тягар, який, очевидно, спонукав керівника Open AI Сема Альтмана сказати, що він вилучить ChatGPT з Європи, якщо він не зможе його дотримуватися. Відтоді він відмовився від цієї погрози, заявивши, що не планує йти.

Але він має право. Політики, які шукають конкретне питання для розгляду, повинні запитати себе, як систему штучного інтелекту загального призначення, таку як ChatGPT, можна сертифікувати як «безпечну», коли багато ризиків з’являться лише під час практичного застосування системи.

Це лише деякі з ключових питань штучного інтелекту, які мають хвилювати політиків. Інші включають вплив на працевлаштування все більш потужних систем штучного інтелекту, проблеми з конфіденційністю, коли навчальні дані містять особисту інформацію, тенденцію до концентрації, спричинену величезними витратами та мережевими ефектами програмного забезпечення для навчання штучного інтелекту, застосування правил відповідальності Розділу 230 та забезпечення дотримання закони проти упередженості у кредитуванні, житлі та працевлаштуванні, коли ШІ керує оцінюванням відповідності.

Політики не повинні і не повинні заблукати в туманні царства, де автономні програми ШІ виходять з-під контролю та загрожують виживанню людини. У них є багато роботи, щоб протистояти численним викликам ШІ в реальному світі.

Джерело: https://www.forbes.com/sites/washingtonbytes/2023/06/06/policymakers-need-to-deal-with-real-ai-challenges/