Експерти зі штучного інтелекту підписали документ, у якому порівнюють ризик «вимирання від штучного інтелекту» з пандемією та ядерною війною

Десятки експертів зі штучного інтелекту (ШІ), включаючи генеральних директорів OpenAI, Google DeepMind і Anthropic, нещодавно підписали відкриту заяву, опубліковану Центром безпеки ШІ (CAIS). 

Заява містить одне речення:

«Пом’якшення ризику вимирання від штучного інтелекту повинно бути глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна».

Серед підписантів документа є справжні «хто є хто» зі світил штучного інтелекту, включаючи «хрещеного батька» штучного інтелекту Джеффрі Гінтона; Каліфорнійський університет Берклі, Стюарт Рассел; і Лекс Фрідман з Массачусетського технологічного інституту. Музикант Граймс також є підписантом, перерахованим у категорії «інші видатні особи».

За темою: Музикант Граймс готовий «розділити 50% гонорару» з музикою, створеною штучним інтелектом

Хоча на перший погляд це твердження може здатися нешкідливим, його суть викликає дещо суперечки в спільноті ШІ.

Здається, зростає кількість експертів, які вважають, що сучасні технології можуть або неминуче призведуть до появи або розвитку системи штучного інтелекту, здатної становити загрозу існуванню людського роду.

Однак їхнім поглядам протистоїть контингент експертів із діаметрально протилежними думками. Наприклад, головний науковець зі штучного інтелекту Meta Ян ЛеКун неодноразово зазначав, що він не обов’язково вірить у те, що ШІ стане неконтрольованим.

Для нього та інших, хто не погоджується з риторикою «вимирання», таких як Ендрю Нґ, співзасновник Google Brain і колишній головний науковий співробітник Baidu, ШІ — це не проблема, а відповідь.

З іншого боку, такі експерти, як Хінтон і генеральний директор Conjecture Коннор Ліхі, вважають, що штучний інтелект на рівні людини неминучий, і тому настав час діяти.

Щоправда, до яких дій закликають підписанти заяви, незрозуміло. Генеральні директори та/або керівники відділів штучного інтелекту майже в усіх великих компаніях штучного інтелекту, а також відомі вчені з усього академічного середовища є серед тих, хто підписав, що робить очевидним намір не зупиняти розробку цих потенційно небезпечних систем.

Раніше цього місяця генеральний директор OpenAI Сем Альтман, один із тих, хто підписав вищезазначену заяву, вперше виступив перед Конгресом під час слухань у Сенаті для обговорення регулювання ШІ. Його свідчення потрапили в газети після того, як він провів більшу частину, закликаючи законодавців регулювати його галузь.

Проект Altman's Worldcoin, що поєднує криптовалюту та підтвердження особистості, також нещодавно потрапив у ЗМІ після того, як залучив 115 мільйонів доларів у рамках серії C, завдяки чому загальне фінансування після трьох раундів досягло 240 мільйонів доларів.

Джерело: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war