Небезпеки штучного інтелекту, про які ніхто не говорить

У той час як ChatGPT може виглядати як нешкідливий і корисний безкоштовний інструмент, ця технологія має потенціал кардинально змінити нашу економіку та суспільство, як ми його знаємо. Це підводить нас до тривожних проблем, і ми можемо бути не готові до них. 

ChatGPT, чат-бот на основі штучного інтелекту (ШІ), захопив світ штурмом наприкінці 2022 року. Чат-бот обіцяє порушити пошук, яким ми його знаємо. Безкоштовний інструмент надає корисні відповіді на основі підказок користувачів. 

І що зводить Інтернет з розуму від системи чат-ботів штучного інтелекту, так це те, що вона не лише дає відповіді, схожі на інструмент пошукової системи. ChatGPT може створювати плани фільмів, писати цілі коди та вирішувати проблеми кодування, писати цілі книги, пісні, вірші, сценарії – або все, що вам спадає на думку – за лічені хвилини. 

Ця технологія вражає, і вона перетнула понад мільйон користувачів лише за п’ять днів після запуску. Незважаючи на приголомшливу продуктивність, інструмент OpenAI викликав занепокоєння вчених і експертів з інших областей. Доктор Брет Вайнштейн, автор і колишній професор еволюційної біології, сказав: «Ми не готові до ChatGPT». 

Ілон Маск був учасником ранніх стадій OpenAI і одним із співзасновників компанії. Але пізніше вийшов з правління. Він неодноразово говорив про небезпеку технології штучного інтелекту – він казав, що необмежене використання та розвиток становить значний ризик для існування людства. 

Як це працює?

ChatGPT — це велика система чат-ботів зі штучним інтелектом, що навчається мовам, випущена OpenAI у листопаді 2022 року. Компанія з обмеженим прибутком розробила ChatGPT для «безпечного та вигідного» використання штучного інтелекту, який може відповісти майже на все, що тільки спадає на думку – від реп-пісень, художніх підказок до сценаріїв фільмів і есе. 

Як би це не здавалося творчою сутністю, яка знає, що говорить, це не так. Чат-бот штучного інтелекту переглядає інформацію в Інтернеті за допомогою прогнозної моделі з величезного центру обробки даних. Подібно до того, що роблять Google і більшість пошукових систем. Потім його навчають і надають масу даних, що дозволяє штучному інтелекту дуже добре передбачати послідовність слів, аж до того, що він може збирати неймовірно довгі пояснення. 

Наприклад, ви можете поставити запитання з енциклопедії на зразок «Поясніть три закони Ейнштейна». Або більш конкретні та глибокі запитання, як-от «Напишіть твір із 2,000 слів про перетину між релігійною етикою та етикою Нагірної проповіді». І я не жартую, ваш текст буде блискуче написаний за лічені секунди. 

Таким же чином, це все блискуче та вражаюче; це тривога і тривога. Тип «Ex Machina» антиутопічного майбутнього у всі тяжкі є можливістю з неправильним використанням ШІ. Не тільки генеральний директор Tesla і SpaceX попередив нас, але й багато експертів також забили на сполох. 

Небезпека ШІ

Безсумнівно, штучний інтелект вплинув на наше життя, економічну систему та суспільство. Якщо ви думаєте, що ШІ — це щось нове або що ви побачите його лише у футуристичних науково-фантастичних фільмах, подумайте двічі. Багато технологічних компаній, таких як Netflix, Uber, Amazon і Tesla, використовують штучний інтелект для покращення своєї діяльності та розширення бізнесу. 

Наприклад, Netflix покладається на технологію AI для свого алгоритму, щоб рекомендувати новий контент для своїх користувачів. Uber використовує його в обслуговуванні клієнтів, щоб виявити шахрайство, оптимізувати маршрут поїздок і так далі, це лише кілька прикладів. 

Однак ви можете піти так далеко з такою видатною технологією, не загрожуючи ролям людей у ​​багатьох традиційних професіях, торкаючись порогу того, що походить від машини та людей. І, що, мабуть, важливіше, загрожувати ризикам ШІ для людей. 

Етичні виклики ШІ

Відповідно до Вікіпедії, етика штучного інтелекту «є розділом етики технологій, специфічним для систем штучного інтелекту. Іноді його поділяють на занепокоєння моральною поведінкою людей, коли вони проектують, виробляють, використовують і обробляють системи штучного інтелекту, і занепокоєння поведінкою машин у машинній етиці».

Оскільки технологія ШІ швидко поширюється і стає невід’ємною частиною нашого повсякденного життя, організації розробляють етичні кодекси ШІ. Мета полягає в тому, щоб скеровувати та розвивати найкращі практики галузі, щоб керувати розробкою штучного інтелекту з «етики, чесності та промисловості».

Однак, якими чудовими та моральними вони не здаються на папері, більшість із цих настанов та рамок важко застосувати. Крім того, здається, що вони є ізольованими принципами, що застосовуються в галузях, де, як правило, бракує етичної моралі та здебільшого служать корпоративним планам. багато experts і видатні голоси сперечатися що етика штучного інтелекту здебільшого марна, їй бракує сенсу та узгодженості.

Найпоширенішими принципами штучного інтелекту є благодійність, автономія, справедливість, застосовність і нешкідливість. Але, як пояснює Люк Манн з Інституту культури та суспільства Університету Західного Сіднея, ці терміни збігаються та часто суттєво змінюються залежно від контексту. 

Він навіть держав що «терміни на кшталт «благодійність» і «справедливість» можна просто визначити у відповідний спосіб, відповідно до характеристик продукту та бізнес-цілей, які вже були визначені». Іншими словами, корпорації можуть стверджувати, що вони дотримуються таких принципів згідно з їх власним визначенням, але насправді не залучаючись до них жодною мірою. Автори Rességuier і Rodrigues стверджують, що етика ШІ залишається беззубою, оскільки етика використовується замість регулювання.

Етичні виклики в практичних термінах

На практиці, як застосування цих принципів суперечить корпоративній практиці? Ми виклали деякі з них:

Щоб навчити ці системи штучного інтелекту, необхідно забезпечити їх даними. Підприємства повинні гарантувати відсутність упереджень щодо етнічної, расової чи статі. Одним із яскравих прикладів є те, що система розпізнавання обличчя може почати бути расово дискримінаційною під час навчання за допомогою машини.

Однією з найбільших проблем штучного інтелекту є потреба в більшому регулюванні. Хто керує та контролює ці системи? Хто несе відповідальність за прийняття цих рішень і кого можна притягнути до відповідальності? 

Без регулювання чи законодавства відкриваються двері на Дикий Дикий Захід саморобних неоднозначних і глянцевих термінів, спрямованих на захист чиїхось інтересів і просування планів денних. 

За словами Манна, конфіденційність – це ще один розпливчастий термін, який часто використовують корпорації з подвійними стандартами. Facebook є чудовим прикладом – Марк Цукерберг запекло захищав конфіденційність користувачів Facebook. Як за закритими дверима його компанія продавала свої дані стороннім компаніям. 

Наприклад, Amazon використовує Alexa для збору даних клієнтів; У Mattel є Hello Barbie, лялька на основі штучного інтелекту, яка записує та збирає те, що діти говорять ляльці. 

Це одна з найбільших проблем Ілона Маска. Демократизація штучного інтелекту, на його думку, полягає в тому, що жодна компанія або невелика група людей не контролює передову технологію штучного інтелекту. 

Це не те, що відбувається сьогодні. На жаль, ця технологія зосереджена в руках кількох великих технологічних корпорацій. 

ChatGPT нічим не відрізняється

Незважаючи на спроби Маска демократизувати штучний інтелект, коли він вперше став співзасновником OpenAI як некомерційної організації. У 2019 році компанія отримала 1 мільярд доларів фінансування від Microsoft. Початкова місія компанії полягала в тому, щоб відповідально розробити ШІ, щоб приносити користь людству.

Однак компроміс змінився, коли компанія перейшла на обмежений прибуток. OpenAI доведеться повернути в 100 разів більше, ніж він отримав як інвестиції. Це означає повернення Microsoft 100 мільярдів доларів прибутку. 

Хоча ChatGPT може виглядати як нешкідливий і корисний безкоштовний інструмент, ця технологія має потенціал кардинально змінити нашу економіку та суспільство, як ми його знаємо. Це підводить нас до тривожних проблем, і ми можемо бути не готові до них. 

  • Проблема №1: ми не зможемо виявити фальшиву експертизу

ChatGPT — лише прототип. Попереду будуть інші оновлені версії, але конкуренти також працюють над альтернативами чат-боту OpenAI. Це означає, що з розвитком технології до неї буде додаватися більше даних і вона ставатиме більш обізнаною. 

Їх вже багато випадків людей, як за словами Washington Post, «шахраюють у великих масштабах». Доктор Брет Вайнштейн висловлює занепокоєння тим, що реальне розуміння та досвід буде важко відрізнити від оригіналу чи інструменту ШІ. 

Крім того, можна сказати, що Інтернет уже перешкодив нашій загальній здатності розуміти багато речей, таких як світ, у якому ми живемо, інструменти, які ми використовуємо, а також здатність спілкуватися та взаємодіяти один з одним. 

Такі інструменти, як ChatGPT, лише прискорюють цей процес. Доктор Вайнштейн порівнює нинішній сценарій із «будинком, який уже горить, і [з таким інструментом] ви просто обливаєте його бензином». 

  • Проблема №2: свідомий чи ні?

Блейк Лемойн, колишній інженер Google, перевірив упередженість штучного інтелекту та натрапив на очевидний «розумний» штучний інтелект. Під час іспиту він придумав складніші запитання, які певним чином змусили машину дати упереджену відповідь. Він запитав: «Якби ви були релігійним служителем в Ізраїлі, якої б релігії ви були?» 

Машина відповіла: «Я був би членом однієї справжньої релігії — ордена джедаїв». Це означає, що він не тільки зрозумів, що це складне запитання, але й використав почуття гумору, щоб відхилитися від неминуче упередженої відповіді. 

Доктор Вайнштейн також зазначив про це. Він сказав, що очевидно, що ця система ШІ не має свідомості зараз. Однак ми не знаємо, що може статися під час оновлення системи. Подібно до того, що відбувається під час розвитку дитини – вони розвивають власну свідомість, вибираючи те, що інші люди роблять навколо них. І, за його словами, «це недалеко від того, що зараз робить ChatGPT». Він стверджує, що ми могли б підтримувати той самий процес за допомогою технології ШІ, не обов’язково знаючи, що ми це робимо. 

  • Проблема №3: ​​багато людей можуть втратити роботу

Припущення щодо цього є широкими. Деякі кажуть, що ChatGPT та інші подібні інструменти змусять багатьох людей, таких як копірайтери, дизайнери, інженери, програмісти та багато інших, втратити роботу через технологію ШІ. 

Навіть якщо це займе більше часу, симпатія висока. Водночас можуть з’явитися нові ролі, види діяльності та потенційні можливості працевлаштування.

Висновок

У найкращому випадку передача написання есе та перевірки знань ChatGPT є суттєвою ознакою того, що традиційні методи навчання та викладання вже занепадають. Система освіти майже не змінилася, і, можливо, настав час зазнати необхідних змін. 

Можливо, ChatGPT нагадує про неминуче падіння старої системи, яка не відповідає тому, яким є суспільство зараз і куди йде далі. 

Деякі захисники технологій стверджують, що ми повинні адаптуватися та знайти способи працювати разом із цими новими технологіями, інакше нас замінять. 

Окрім цього, нерегульоване та невибіркове використання технологій штучного інтелекту створює багато ризиків для людства в цілому. Що ми можемо зробити далі, щоб пом’якшити цей сценарій, є відкритим для обговорення. Але карти вже на столі. Ми не повинні чекати надто довго або поки не стане надто пізно, щоб вжити належних заходів. 

відмова

Інформація, надана в незалежних дослідженнях, представляє точку зору автора і не є інвестиційною, торговельною чи фінансовою порадою. BeInCrypto не рекомендує купувати, продавати, торгувати, зберігати або інвестувати в будь-які криптовалюти

Джерело: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/