Десятки експертів зі штучного інтелекту (ШІ), включаючи генеральних директорів OpenAI, Google DeepMind і Anthropic, нещодавно підписали відкриту заяву, опубліковану Центром безпеки ШІ (CAIS).
Ми щойно опублікували заяву:
«Пом’якшення ризику вимирання від штучного інтелекту повинно бути глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна».
Підписанти включають Хінтона, Бенгіо, Альтмана, Хассабіса, Сонга тощо.https://t.co/N9f6hs4bpa
(1 / 6)
— Ден Хендрікс (@DanHendrycks) Травень 30, 2023
Заява містить одне речення:
«Пом’якшення ризику вимирання від штучного інтелекту повинно бути глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна».
Серед підписантів документа є справжні «хто є хто» зі світил штучного інтелекту, включаючи «хрещеного батька» штучного інтелекту Джеффрі Гінтона; Каліфорнійський університет Берклі, Стюарт Рассел; і Лекс Фрідман з Массачусетського технологічного інституту. Музикант Граймс також є підписантом, перерахованим у категорії «інші видатні особи».
За темою: Музикант Граймс готовий «розділити 50% гонорару» з музикою, створеною штучним інтелектом
Хоча на перший погляд це твердження може здатися нешкідливим, його суть викликає дещо суперечки в спільноті ШІ.
Здається, зростає кількість експертів, які вважають, що сучасні технології можуть або неминуче призведуть до появи або розвитку системи штучного інтелекту, здатної становити загрозу існуванню людського роду.
Однак їхнім поглядам протистоїть контингент експертів із діаметрально протилежними думками. Наприклад, головний науковець зі штучного інтелекту Meta Ян ЛеКун неодноразово зазначав, що він не обов’язково вірить у те, що ШІ стане неконтрольованим.
Надлюдський штучний інтелект далеко не на вершині списку екзистенційних ризиків.
Багато в чому тому, що його ще немає.Поки у нас не буде базового дизайну навіть для штучного інтелекту на рівні собаки (не кажучи вже про рівень людини), обговорювати, як зробити його безпечним, передчасно. https://t.co/ClkZxfofV9
— Ян ЛеКун (@ylecun) Травень 30, 2023
Для нього та інших, хто не погоджується з риторикою «вимирання», таких як Ендрю Нґ, співзасновник Google Brain і колишній головний науковий співробітник Baidu, ШІ — це не проблема, а відповідь.
З іншого боку, такі експерти, як Хінтон і генеральний директор Conjecture Коннор Ліхі, вважають, що штучний інтелект на рівні людини неминучий, і тому настав час діяти.
Керівники всіх великих лабораторій штучного інтелекту підписали цей лист, чітко визнаючи ризик зникнення через AGI.
Неймовірний крок уперед, вітаємо Дена за його неймовірну роботу над цим і дякуємо кожному підписанту за те, що він вніс свою участь у кращому майбутньому! https://t.co/KDkqWvdJcH
— Коннор Ліхі (@NPCollapse) Травень 30, 2023
Щоправда, до яких дій закликають підписанти заяви, незрозуміло. Генеральні директори та/або керівники відділів штучного інтелекту майже в усіх великих компаніях штучного інтелекту, а також відомі вчені з усього академічного середовища є серед тих, хто підписав, що робить очевидним намір не зупиняти розробку цих потенційно небезпечних систем.
Раніше цього місяця генеральний директор OpenAI Сем Альтман, один із тих, хто підписав вищезазначену заяву, вперше виступив перед Конгресом під час слухань у Сенаті для обговорення регулювання ШІ. Його свідчення потрапили в газети після того, як він провів більшу частину, закликаючи законодавців регулювати його галузь.
Проект Altman's Worldcoin, що поєднує криптовалюту та підтвердження особистості, також нещодавно потрапив у ЗМІ після того, як залучив 115 мільйонів доларів у рамках серії C, завдяки чому загальне фінансування після трьох раундів досягло 240 мільйонів доларів.
Джерело: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war