Момент Cry Wolf у рекламі AI марний

Хоча я досліджую сценарії кінця людства, я вважаю, що «лист експерта», який пропонує 6-місячний мораторій на штучний інтелект, або нещодавня заява про те, що ризик штучного інтелекту досягає рівня пандемії та ядерного ризику, обидва перебільшені. Ще більш дика думка про те, що нам потрібно закрити ШІ, є безвідповідальною. Будь-яке занепокоєння має бути пропорційним ризикам, з якими ми стикаємося. На даний момент ШІ не загрожує нам безпосередньо.

Сучасний ШІ не здатний захопити суспільство. Вони не мають почуттів і не заслуговують на захист, як людське життя. Вони не є суперінтелектуальними і ні в чому не перевершують людей. Насправді вони взагалі не думають. Прямо зараз, якщо отримати велику кількість даних, ШІ дуже добре справляється з конкретними завданнями, такими як обчислення та прогнозування. Це не страшно, це функції, які ці системи мають за задумом. Обіцянки штучного інтелекту включають лікування раку, трансформацію промислового виробництва, моделювання майбутніх сценаріїв і управління екологічними проблемами. Зважаючи на це, є законні підстави критикувати поточний штучний інтелект за використання ресурсів, прозорість, упередженість, кібербезпеку та його майбутній вплив на зайнятість.

ШІ є дорогим з точки зору обчислень, а це означає, що вони є марною тратою дефіцитної викопної енергії. Це потрібно негайно вирішити. Але це не екзистенційне питання, це питання раціонального використання ресурсів. Той факт, що штучний інтелект, який покладається на великі та неефективні моделі даних, стає занадто дорогим для відстеження та дослідження академічними чи урядовими установами, є реальною проблемою. Але це незабаром можна виправити. Консорціуми елітних академічних закладів чи урядів могли б об’єднатися й поділитися обчислювальними ресурсами так, як вони це зробили для суперкомп’ютерів.

Великі мовні моделі (LLM) — це моделі ШІ, які можуть генерувати тексти природною мовою з великих обсягів даних. Однією з проблем є те, що ці тексти безпосередньо походять із чесного інтелектуального внеску інших людей. Вони фактично вкрадені. Генеративний штучний інтелект, зокрема, рекомбінує споживчі й організаційні дані, а також творчий вміст, грубо порушуючи авторські права. Це серйозно, але не екзистенційно, до того ж ЄС, лобісти з Голлівуду та книговидавці «великої п’ятірки» вже задіяні. Очікуйте, що це сповільнить роботу ШІ. За нинішніх темпів у штучного інтелекту закінчаться хороші навчальні дані задовго до того, як він наблизиться до розуму.

Алгоритми, які вже використовуються для розрахунку наших податків, вибору наших онлайн-каналів або посадки людей у ​​в’язницю, мають разючу непрозорість. Однак це було роками і не має нічого спільного з останніми розробками ШІ. Упередженість штучного інтелекту – це функція, а не помилка. Фактично стереотипізація є основним підходом, за допомогою якого працюють такі моделі. За винятком того, що упередження приховано в непроникних шарах машинного мислення, невловимого для людей, експертів чи ні. Ми повинні поставити під сумнів мудрість розробників, які розробили такі системи, а не можливості створеної ними системи, які є даністю. Системи рідко бувають кращими за мудрість чи наміри тих, хто їх будує або керує.

Дані навчання ШІ відображають упередження, наявні в суспільстві, з якого ці дані були зібрані. Повторне використання поганих навчальних даних викликає занепокоєння і вже забруднює моделі ШІ. Сучасні підходи штучного інтелекту просто підсилюють упередження, щоб швидко отримати результат. Це, правда, протилежне тому, чого ми хочемо. Те, що ми хочемо зробити, це використовувати технології для захисту від помилок людини. Турбуватися про машинні помилки – це марнотратне використання людського інтелекту.

Незважаючи на метафору «нейронної мережі», сучасні штучні інтелекти не нагадують мізки ні в якому разі. Сучасні системи ШІ не можуть міркувати за аналогією, як це роблять люди. Це добре. Можливо, ми насправді не хочемо такого типу вирівнювання штучного інтелекту, який відстоюють і намагаються наслідувати фанатики. Машини повинні відрізнятися від людей. Саме так ми можемо максимізувати сильні сторони один одного. І як ми можемо розрізняти машини. Машини не повинні мати жодних інтересів для узгодження.

ШІ все частіше представляє значну загрозу кібербезпеці як актив для злочинців і ворожих держав. Але кібербезпека є зрілою галуззю з великою кількістю експертів, добре підготовлених для вирішення цієї проблеми. Немає причин закривати ШІ через побоювання кібербезпеки.

Знищення робочих місць через ШІ було проблемою політики протягом багатьох років, спочатку з роботами, а тепер із програмними системами ШІ. Це означає, що уряди будуть готові впоратися з цим. Дослідження MIT Work of The Future виявило занепокоєння щодо безробіття через роботів перебільшеним. Люди завжди знаходили способи працювати і будуть це робити в майбутньому. Чи змінить виробництво ШІ? Це вже відбувається, але досить контрольовано.

Час від часу штучний інтелект страждає від надмірно роздутих обіцянок щодо поточної функціональності чи майбутнього масштабу. Перші зими ШІ почалися в 1974–1980 роках, коли уряд США припинив фінансування. Другий був у 1987–1993 роках, коли витрати зросли, а ШІ не зміг виконати своїх високих обіцянок.

В очікуванні появи нових парадигм у період з 2025 по 2030 рік ми, ймовірно, вступимо в третю зиму ШІ. Принаймні в порівнянні зі спекотним літом ШІ, яке нам обіцяють. Причина полягає в тому, що, незважаючи на ажіотаж, з усіх причин, описаних вище, великі мовні моделі ось-ось досягнуть своєї максимальної корисності, і врешті-решт їх потрібно буде замінити більш елегантними з точки зору обчислень підходами, які є більш прозорими.

Одним із таких кандидатів є гіпервимірне обчислення, яке зробить машини більш ефективними, оскільки вони дають машинам семантичне розуміння, здатність обробляти значення та контекст, що стоїть за інформацією реального світу. Зараз системи штучного інтелекту не розуміють зв’язків між словами та фразами, вони просто добре вгадують. Цього недостатньо. З часом нам знадобиться втілений ШІ, оскільки мислення пов’язане зі сприйняттям простору. Це точно стосується виробництва, яке є дуже фізичною грою. Нам також знадобиться штучний інтелект, здатний працювати з функціями людської пам’яті, такими як встановлення пріоритетів на основі виділення деякої інформації на передній план і фонової обробки іншої інформації. Забування — це інструмент, який люди використовують для абстрактного мислення, переходу від застарілих організаційних практик, прийняття рішень і для того, щоб залишатися в моменті, і це не просто недолік. Жодна машина ще не може зробити це дуже добре.

Тим часом нам потрібно регулювати, але не зараз. І коли ми регулюємо, краще робити це добре. Погане регулювання ШІ може погіршити ситуацію. Пробудження регуляторів до цього виклику може бути корисним, але я не впевнений, що нинішнє покоління регуляторів готове до таких кардинальних змін, які були б необхідні, щоб зробити це добре. Це призведе до згортання потужних компаній (можливо, усіх зареєстрованих компаній), обмеження використання ШІ в управлінні та означатиме величезні зміни в тому, як зараз працюють споживчі ринки. По суті, нам доведеться перебудувати суспільство. Це призвело б до відростання на кілька десятиліть раніше, ніж ми хотіли б. Проблема прозорості навколо штучного інтелекту може бути більш серйозною, ніж контрольні змінні, які, здається, так хвилюють усіх, не тому, що вони не пов’язані, звичайно.

Крім того, ми не можемо однаково хвилюватися кожного разу, коли досягається контрольний показник ШІ. Нам потрібно зберегти свою енергію для справді великих моментів каскадного ризику. Вони прийдуть, і, чесно кажучи, ми не готові. Мої передбачувані сценарії майбутнього (див. Сценарії вимирання на 2075 рік) включають масові витоки даних, через які цілі країни залишаються поза межами власних процесів на місяці. Я також хвилююся щодо штучного інтелекту, якому допомагають кримінальні групи чи державні діячі. Найбільше мене хвилює поєднання штучного інтелекту, нанотехнологій, синтетичної біології та квантових технологій — майже невидимого квазіорганічного інтелекту невідомої здатності, можливо, лише через кілька десятиліть, що станеться саме тоді, коли світ буде поглинений каскадними наслідками клімату. змінити.

Сучасні моделі штучного інтелекту ще не працюють настільки добре, щоб становити загрозу для людства. Перш ніж ми зможемо закрити їх, нам потрібен кращий ШІ. Більше того, нам потрібні мудріші розробники, більш чутливі громадяни та краще поінформовані політики. Нам також потрібна концепція того, ЯК регулювати ШІ. Але це можна зробити, нічого не сповільнюючи. Це буде навчальна подорож для всіх. Лист про накладення мораторію на GPT 4 (2023) — це кричущий момент, який лише трохи нагадує каскадні ризики, з якими людство зіткнеться в найближчі десятиліття. Поставити ризик штучного інтелекту на рівень ризику пандемії та ядерного ризику в 2023 році передчасно. Чи ми доїдемо? Можливо. Але плач вовка має наслідки. Це висмоктує кисень із майбутніх дебатів про справжні страхи.

Джерело: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/