Заглиблення в шум і фанфари щодо Generative AI ChatGPT, включно з загрозливою етикою штучного інтелекту та міркуваннями законодавства щодо штучного інтелекту

Я припускаю, що наразі ви вже чули або, можливо, бачили гучні заголовки новин чи публікації в соціальних мережах, які рекламують найпопулярніше та найновіше використання штучного інтелекту, який генерує, здавалося б, написані людиною текстові розповіді за допомогою програми штучного інтелекту, відомої як ChatGPT.

Якщо ви ще не чули або не читали про цю нову програму штучного інтелекту, не хвилюйтеся, я розповім вам про неї.

Для тих із вас, хто вже знає про ChatGPT, вас можуть зацікавити деякі з моїх інсайдерських розповідей про те, що він робить, як працює та чого слід стежити. Загалом, майже будь-хто, хто дбає про майбутнє, неминуче захоче дізнатися, чому всі хвилюються через цю програму ШІ.

Щоб уточнити, нестримні прогнози свідчать про те, що цей тип штучного інтелекту змінить життя, включаючи життя тих, хто ще нічого не знає про ChatGPT чи будь-які інші подібні можливості ШІ. Як я зараз поясню, ці додатки штучного інтелекту матимуть досить масштабні наслідки, які ми тільки починаємо передбачати.

Будьте готові до американських гірок, відомих як Генеративний ШІ.

Я почну з деяких ключових відомостей про генеративний ШІ та використаю найпростіший сценарій, який включає ШІ, який створює мистецтво. Після ознайомлення з цією основою ми перейдемо до генеративного штучного інтелекту, який створює орієнтовані на текст наративи.

Щодо мого поточного та широкого висвітлення штучного інтелекту в цілому, включаючи етику штучного інтелекту та право штучного інтелекту, див. посилання тут та посилання тут, просто назвемо декілька.

Generative AI That Produces Generated Art

Я називаю цей тип або стиль ШІ генеративний це термінологія любителів штучного інтелекту, яка використовується для опису штучного інтелекту, який генерує такі результати, як текст, зображення, відео тощо.

Ви могли помітити на початку цього року, що була велика хвиля щодо можливості генерувати художні зображення, ввівши рядок або два тексту. Ідея досить проста. Ви використовуєте програму штучного інтелекту, яка дозволяє вводити текст на ваш вибір. Наприклад, ви можете ввести, що хочете побачити, як виглядатиме жаба з капелюхом на вершині димоходу. Потім програма штучного інтелекту аналізує ваші слова та намагається створити зображення, яке загалом відповідає вказаним вами словам. Людям дуже подобається створювати всілякі зображення. Соціальні мережі на деякий час були забиті ними.

Як генеративний ШІ виконує аспекти генерації?

У випадку стилю перетворення тексту в мистецтво генеративного штучного інтелекту низка онлайн-арту була попередньо відсканована за допомогою комп’ютерних алгоритмів, а елементи відсканованого мистецтва були обчислювально проаналізовані на відповідні компоненти. Уявіть онлайн-картинку із зображенням жаби. Уявіть інше окреме зображення, на якому є димохід. Ще на одній картинці зображений капелюх. Ці компоненти ідентифікуються обчислювальним шляхом, іноді це робиться без допомоги людини, а іноді за допомогою людського керівництва, а потім формулюється свого роду математична мережа.

Коли ви прийдете пізніше й попросите створити твір із зображенням жаби з капелюхом на димоході, додаток AI використовує математичну мережу, щоб знайти та об’єднати ці елементи. Отримане художнє зображення може вийти, а може і не вийти таким, як ви сподівалися. Можливо, жаба потворна на вигляд. Капелюх може бути великим капелюхом-дубкою, але ви бажали тоншого капелюха у стилі дербі. Тим часом зображення жаби стоїть на комині, хоча ви хотіли, щоб жаба сиділа замість неї.

Чудова річ у таких додатках зі штучним інтелектом полягає в тому, що вони зазвичай дозволяють повторювати ваш запит, а також додавати додаткові специфікації, якщо ви хочете це зробити. Таким чином, ви можете повторити свій запит і вказати, що вам потрібна красива жаба в капелюсі дербі, яка сидить на димарі. Вуаля, щойно створене зображення може бути ближче до того, що ви хотіли.

Дехто задавався питанням, чи штучний інтелект просто відригує саме те, на чому його навчили. Відповідь - ні (зазвичай). Зображення жаби, яке AI демонструє за вашим запитом, не обов’язково є точною копією аналогічного зображення, яке було в навчальному наборі. Більшість цих генеративних додатків AI налаштовано на узагальнення будь-яких зображень, які вони спочатку знайшли. Подумайте про це таким чином. Припустимо, ви зібрали тисячу зображень жаб. Ви можете поступово з’ясувати, як виглядає жаба, об’єднавши разом тисячі знайдених зображень. Таким чином, жаба, яку ви намалювали, не обов’язково точно схожа на ту, яку ви використовували для навчання.

Зважаючи на це, існує ймовірність того, що алгоритм штучного інтелекту може не настільки узагальнювати, як можна було б припустити. Якщо є унікальні навчальні зображення, а інших подібних немає, можливо, штучний інтелект «узагальнює» досить близько до єдиного конкретного екземпляра, який він отримав. У цьому випадку спроба алгоритму згодом створити необхідне зображення такого характеру може виглядати помітно схожим на те, що було в навчальному наборі.

Я зроблю паузу на мить, щоб висловити деякі думки, пов’язані з етикою штучного інтелекту та законодавством щодо штучного інтелекту.

Як уже згадувалося, якщо генеративний ШІ навчається в Інтернеті, це означає, що все, що було опубліковано в Інтернеті, можливо, буде використано алгоритмом ШІ. Тоді припустімо, що у вас є чудовий твір мистецтва, над яким ви працювали, і ви вважаєте, що володієте правами на цей твір. Ви розміщуєте його фото в Інтернеті. Будь-хто, хто хоче використати ваш твір мистецтва, має прийти до вас і заплатити плату за таке використання.

Можливо, ви вже відчуваєте, куди це веде.

Чекайте сумних новин.

Отже, генеративна програма зі штучним інтелектом, яка проходить навчання за допомогою широкого вивчення вмісту в Інтернеті, виявляє ваш чудовий витвір мистецтва. Зображення вашого твору мистецтва поглинається додатком AI. Характеристики вашого мистецтва тепер математично поєднуються з іншими відсканованими творами мистецтва. Коли його попросять створити твір мистецтва, штучний інтелект може використати ваш твір під час створення нового художнього зображення. Ті люди, які збирають мистецтво, можуть не усвідомлювати, що в певному сенсі мистецтво має ваші конкретні відбитки пальців, оскільки алгоритм штучного інтелекту дещо відобразив ваш шедевр.

Також існує ймовірність, що якщо ваш твір мистецтва був надзвичайно унікальним, його може повторно використати додаток AI для більшої схожості демонстрації майстерності. Таким чином, іноді ваш твір мистецтва може бути ледве впізнаваним у деяких нещодавно створених штучним інтелектом мистецтво, тоді як в інших випадках це може статися так, що згенерований твір мистецтва є майже зображенням того, що ви вгадали.

Тому настав час включити в цей сценарій етику ШІ.

Чи є етично правильним або прийнятним, що генеративний ШІ створив твір мистецтва, подібний до вашого мистецтва?

Хтось каже так, а хтось ні.

Табір «так», вважаючи, що це абсолютно нормально з етичної точки зору, можливо, стверджував би, що оскільки ви опублікували свій твір мистецтва в Інтернеті, він відкритий для будь-кого чи будь-кого, хто хоче його скопіювати. Крім того, вони можуть стверджувати, що нове мистецтво не є точною копією вашої роботи. Таким чином, ви не можете скаржитися. Якби ми якимось чином припинили будь-яке повторне використання існуючого мистецтва, у нас ніколи не було б жодного нового мистецтва, на яке можна було б подивитися. Крім того, ми, імовірно, можемо вступити в бурхливу дискусію про те, чи копіювався чи використовувався ваш конкретний твір мистецтва чи ні – це міг бути якийсь інший твір мистецтва, про існування якого ви навіть не підозрювали та який насправді був основним джерелом.

Ні табір рішуче наполягатиме на тому, що це надзвичайно неетично. Тут немає двох шляхів. Вони сперечатимуться, що вас обдурюють. Те, що ваш твір мистецтва опубліковано в Інтернеті, не означає, що будь-хто може прийти та вільно скопіювати його. Можливо, ви опублікували малюнок із суворим попередженням не копіювати його. Тим часом з’явився штучний інтелект, який видалив зображення й повністю пропустив попередження. Епатажно! І виправдання, що алгоритм штучного інтелекту узагальнив і не виконує дрібниці точного копіювання, здається одним із тих фальшивих виправдань. Він придумав, як використовувати ваш артистизм, і це обман і ганьба.

А як щодо правових аспектів цього генеративного ШІ?

Існує багато суперечок щодо юридичних деталей генеративного ШІ. Чи читаєте ви федеральні закони про права інтелектуальної власності (ІВ)? Чи достатньо вони жорсткі для застосування? Що щодо того, коли генеративний ШІ перетинає міжнародні кордони, щоб зібрати навчальний набір? Чи підходить твір мистецтва, створений штучним інтелектом, до різних категорій винятків, пов’язаних з правами ІВ? І так далі.

Дехто вважає, що нам потрібні нові закони, пов’язані з штучним інтелектом, щоб боротися саме з цими видами генеративних ситуацій ШІ. Замість того, щоб намагатися підкорити існуючі закони, можливо, було б чистішим і легшим розробити нові закони. Крім того, навіть якщо чинні закони застосовуються, витрати та затримки у спробі подати позов можуть бути величезними та перешкоджати вашій здатності просуватися вперед, якщо ви вважаєте, що вам було завдано несправедливої ​​та незаконної шкоди. Для мого висвітлення цих тем див посилання тут.

Я додам додатковий поворот до цих міркувань етики ШІ та Закону ШІ.

Кому належать права на згенерований результат ШІ?

Ви можете сказати, що люди, які розробили ШІ, повинні володіти цими правами. Не всі згодні з таким твердженням. Ви можете сказати, що ШІ володіє цими правами, але це бентежить той факт, що ми загалом не визнаємо ШІ здатним володіти такими правами. Поки ми не з’ясуємо, чи буде штучний інтелект мати статус юридичної особи, на цьому фронті все буде невизначено, перегляньте мій аналіз на посилання тут.

Я вірю, що тепер ви маєте схожість того, що робить генеративний ШІ. Далі ми можемо перейти до розгляду сценарію використання, що включає створення текстових наративів.

Генеративний ШІ, який генерує текстові розповіді

Тепер, коли ми обговорили використання генеративного штучного інтелекту для створення мистецтва чи зображень, ми можемо легко розглянути ті самі загальні формулювання для створення текстових наративів.

Почнемо з чогось, про що ми всі знаємо і використовуємо щодня. Коли ви вводите текст у текстовий пакет або програму електронної пошти, є ймовірність того, що існує функція автоматичного виправлення, яка намагається виявити будь-які ваші орфографічні помилки.

Після того, як така функція автоматичної допомоги стала загальною, наступним більш просунутим аспектом стала функція автозаповнення. Концепція автозавершення полягає в тому, що коли ви починаєте писати речення, програма обробки текстів або програма електронної пошти намагається передбачити, які слова ви, швидше за все, введете наступним. Він може передбачити лише одне-два слова наперед. Якщо цю здатність особливо посилено, вона може передбачити решту всього вашого речення.

Ми можемо розгорнути це. Припустімо, ви починаєте писати речення, а автозавершення генерує решту всього абзацу. Вуаля, вам не потрібно було писати абзац безпосередньо. Натомість програма зробила це за вас.

Гаразд, це здається гарним. Проштовхніть це далі. Ви починаєте речення, а автозавершення складає решту всього повідомлення. Він може складатися з багатьох абзаців. Усе це генерується шляхом введення лише частини речення або, можливо, цілого або двох речень.

Як автозаповнення визначає, що ви, ймовірно, введете далі?

Виявляється, люди схильні писати одні й ті самі речі знову і знову. Можливо, ви й ні, але справа в тому, що все, що ви пишете, напевно, вже написав хтось інший. Це може бути не зовсім те, що ви збираєтеся написати. Натомість це може бути дещо схоже на те, що ви збиралися написати.

Давайте скористаємося тією ж логікою, що використовувалася для створення мистецтва чи зображень.

Генеративний додаток штучного інтелекту створюється шляхом виходу в Інтернет і вивчення всіх видів тексту, який існує в онлайн-світі. Алгоритм намагається за допомогою обчислень визначити, як слова пов’язані з іншими словами, як речення пов’язані з іншими реченнями та як абзаци пов’язані з іншими абзацами. Усе це моделюється математично, і створюється обчислювальна мережа.

Ось що буде далі.

Ви вирішили скористатися програмою генеративного штучного інтелекту, яка зосереджена на створенні текстових оповідань. Після запуску програми ви вводите речення. Додаток зі штучним інтелектом обчислює ваше речення. Різні математичні співвідношення між словами, які ви ввели, використовуються в математичній мережі, щоб спробувати визначити, який текст буде наступним. З одного написаного вами рядка може бути створена ціла історія чи розповідь.

Тепер ви можете подумати, що це мавпа-бач-мавпа-робить і що результуючий текст, створений генеративним ШІ, буде безглуздим. Що ж, ви були б здивовані тим, наскільки добре налаштований цей вид ШІ. Маючи достатньо великий набір даних для навчання та достатню комп’ютерну обробку для їх широкого збивання, результат, створений генеративним ШІ, може бути надзвичайно вражаючим.

Ви б подивились на результат і, ймовірно, поклялися, що згенерований наратив був написаний безпосередньо людиною. Це так, ніби ваш вирок був переданий людині, яка ховалася за лаштунками, і вони швидко написали вам цілу розповідь, яка майже повністю відповідала тому, що ви збиралися сказати інакше. Ось наскільки гарною стала математика та обчислювальна основа.

Зазвичай, використовуючи генеративний штучний інтелект, який створює текстові розповіді, ви, як правило, надаєте початкове запитання чи якесь твердження. Наприклад, ви можете ввести «Розкажіть мені про птахів у Північній Америці», і генеративний штучний інтелект вважатиме це твердженням або запитанням, за допомогою якого програма потім намагатиметься ідентифікувати «птахів» і «Північну Америку» за допомогою будь-якого навченого набору даних. Це має. Я впевнений, що ви можете собі уявити, що в Інтернеті існує величезна кількість текстів, які описують птахів Північної Америки, з яких штучний інтелект під час попереднього навчання витягнув і змоделював сховища тексту.

Отриманий результат навряд чи буде точним текстом будь-якого конкретного веб-сайту. Нагадаємо, що те саме згадувалося раніше про створені ілюстрації. Текст складатиметься з різновидів, фрагментів і фрагментів, пов’язаних разом математично та обчислювально. Згенерований текстовий наратив для всіх загальних проявів здавався б унікальним, наче цей конкретний текст ніколи раніше ніким не складався.

Звичайно, можуть бути показові підказки. Якщо ви попросите або змусите генеративний штучний інтелект перейти до надзвичайно незрозумілих тем, є більша ймовірність того, що ви можете побачити вихідний текст, який нагадує використані джерела. У випадку з текстом шанси зазвичай нижчі, ніж для мистецтва. Текст буде поєднанням особливостей теми, а також розмитим і злитим із загальними видами тексту, які використовуються в загальному дискурсі.

Інсайдери з питань штучного інтелекту часто називають математичні та обчислювальні методи та технології, які використовуються для цих генеративних можливостей ШІ, як великі мовні моделі (LLM). Простіше кажучи, це моделювання людської мови на широкомасштабній основі. До появи Інтернету вам було важко знайти надзвичайно великий набір текстових даних, який був доступний в Інтернеті та недорого. Ймовірно, вам довелося б купити доступ до тексту, і він не обов’язково був би вже доступний в електронному чи цифровому форматах.

Розумієте, Інтернет корисний для чогось, а саме як готове джерело для навчання генеративного ШІ.

Проникливі думки про генеративний ШІ, який створює текст

Нам слід подумати про етику штучного інтелекту та закони ШІ про розгалуження генеративного штучного інтелекту, який створює текстові наративи.

Пам’ятайте, що у випадку створеного мистецтва ми хвилювалися щодо етики алгоритму штучного інтелекту, який створює мистецтво на основі інших творів мистецтва, створених людьми. Таке ж занепокоєння виникає в текстовому випадку. Навіть якщо згенерований текст виглядає не зовсім так, як оригінальні джерела, ви можете стверджувати, що, незважаючи на це, штучний інтелект використовує текст, а оригінального виробника обманюють. Інша сторона цієї медалі полягає в тому, що текст в Інтернеті, якщо він є у вільному доступі, може використовуватися будь-якою людиною для подібних дій, отже, чому б не дозволити ШІ робити те саме?

Складнощі, пов’язані з юридичними аспектами прав інтелектуальної власності, також виходять на перший план у прикладі генеративного ШІ на основі тексту. Якщо припустити, що текст, який вивчається, захищений авторським правом, чи можете ви сказати, що створений текст порушує ці законні права? Одна відповідь – це так, інша – що ні. Зрозумійте, що згенерований текст, ймовірно, буде досить далеко від оригінального тексту, тому вам може бути важко стверджувати, що оригінальний текст було зірване.

Інша вже згадана проблема також стосується прав власності на створені текстові наративи генеративним ШІ. Припустімо, ви вводите в ШІ «Напишіть кумедну історію про людей, які чекають у черзі, щоб отримати каву», і генеративний ШІ створює сторінку за сторінкою веселої історії про групу людей, які випадково зустрічаються, чекаючи на чашку java.

Кому належить ця історія?

Ви можете заперечити, що оскільки ви ввели підказку, ви по праву повинні «володіти» згенерованою історією. Ого, хтось скаже, історія була створена за допомогою ШІ, отже, ШІ «володіє» чудовою історією. Ой, закликали б інші, якби штучний інтелект брав уривки з усіх видів інших схожих історій в Інтернеті, усі ці автори мали б розділити право власності.

Питання не вирішено, і ми просто зараз потрапляємо в юридичне болото, яке буде розгортатися протягом наступних кількох років.

Існують додаткові занепокоєння щодо етики та законів штучного інтелекту.

Деякі люди, які використовували генеративні програми ШІ, починають вірити, що програма ШІ розумна. Це повинно бути, вигукують вони. Як інакше можна пояснити приголомшливі відповіді та історії, які здатний створювати ШІ? Ми нарешті досягли розумного ШІ.

Вони абсолютно неправі.

Це не розумний ШІ.

Коли я кажу це, деякі інсайдери ШІ засмучуються і поводяться так, ніби будь-хто, хто заперечує, що ШІ розумний, водночас каже, що ШІ нічого не вартий. Це хибний і неправильний аргумент. Я відкрито погоджуюсь, що цей генеративний ШІ є досить вражаючим. Ми можемо використовувати його для будь-яких цілей, про що я згадаю пізніше. Тим не менш, це не чуттєво. Для мого пояснення того, чому такі прориви ШІ не є розумними, див посилання тут.

Інше надмірне і явно неправильне твердження деяких полягає в тому, що генеративний ШІ успішно переміг у тесті Тюрінга.

Безсумнівно НЕ зроблено так.

Тест Тьюрінга — це своєрідний тест, щоб переконатися, що додаток зі штучним інтелектом може бути на рівні з людьми. Тест, спочатку розроблений Аланом Тьюрингом, великим математиком і піонером комп’ютерів, як гра в імітацію, сам по собі простий. Якби ви посадили людину за завісу, а програму штучного інтелекту за іншу завісу, і ви задали їм обом запитання, з яких ви не могли б визначити, яка машина, а яка людина, ШІ успішно пройшов би перевірку. Тест Тьюрінга. Для мого глибокого пояснення та аналізу тесту Тюрінга див посилання тут.

Ті люди, які постійно стверджують, що генеративний ШІ пройшов тест Тюрінга, не знають, про що говорять. Вони або не знають, що таке тест Тьюринга, або, на жаль, розкручують штучний інтелект неправильним і абсолютно оманливим способом. У будь-якому випадку, одне з життєво важливих міркувань щодо тесту Тюрінга полягає в тому, які запитання слід задавати, разом із тим, хто їх задає, а також оцінити, чи відповідають відповіді людській якості.

Я хочу сказати, що люди вводять десяток або близько того запитань до генеративного ШІ, і коли відповіді здаються правдоподібними, ці люди необдумано заявляють, що тест Тюрінга пройдено. Знову ж таки, це неправда. Вводити надуманий набір запитань і колупати тут і там не є ні наміром, ні духом тесту Тюрінга. Припиніть робити ці нечесні заяви.

Ось законна скарга, про яку ви мало чуєте, хоча я вважаю, що вона надзвичайно гідна.

Розробники штучного інтелекту зазвичай налаштовують генеративний штучний інтелект таким чином, щоб він реагував так, ніби відповідає людина, а саме використовуючи фрази «я» або «мене», коли він створює результат. Наприклад, запитуючи розповісти історію про собаку, що загубилася в лісі, генеративний ШІ може надати текст, який говорить: «Я розповім тобі все про собаку на ім’я Сем, яка загубилася в лісі. Це одна з моїх улюблених історій».

Зверніть увагу, що у формулюванні сказано: «Я розповім тобі…», а історія — «одна з моїх улюблених…», тому будь-хто, хто читатиме цей матеріал, непомітно потрапить у розумову пастку антропоморфізації ШІ. Антропоморфізація полягає в тому, що люди намагаються присвоїти людиноподібні риси та людські почуття до нелюдей. Вас заколисує думка, що цей штучний інтелект є людиною або схожим на людину, оскільки формулювання в результатах навмисно розроблено таким чином.

Це не повинно бути розроблено таким чином. Вихід може бути таким: «Ось історія про собаку на ім’я Сем, який загубився в лісі. Це улюблена історія». З меншою ймовірністю ви відразу припустите, що штучний інтелект є людиною або схожим на людину. Я розумію, що ви все ще можете потрапити в цю пастку, але принаймні пастки, як вони були, не настільки виражені.

Коротше кажучи, у вас є генеративний штучний інтелект, який створює текстові розповіді на основі того, як люди пишуть, і кінцевий результат виглядає так, ніби він написаний так, як щось написала б людина. Це має великий сенс, оскільки ШІ математично та обчислювально базується на тому, що написали люди. Тепер додайте до цього використання антропоморфізуючих формулювань, і ви отримаєте ідеальний шторм, який переконує людей, що ШІ є розумним або пройшов тест Тьюринга.

Виникає багато питань щодо етики штучного інтелекту та законодавства щодо штучного інтелекту.

Я покажу вам досить небезпечні наслідки цього генеративного ШІ.

Сідайте для цього.

Створювані текстові розповіді не обов’язково відповідають вимогам правдивості чи точності. Важливо усвідомлювати, що генеративний штучний інтелект не «розуміє» те, що генерується (не будь-яким чином, пов’язаним з людиною, як можна стверджувати). Якщо текст, який використовувався під час тренінгу, містив неправду, велика ймовірність, що цю саму неправду буде вмонтовано в генеративну математичну та обчислювальну мережу ШІ.

Крім того, генеративний штучний інтелект зазвичай не має жодних математичних чи обчислювальних засобів, щоб визначити, що створений текст містить неправду. Коли ви дивитеся на створений вихідний наратив, він зазвичай виглядатиме повністю «правдивим» на перший погляд. Можливо, у вас немає життєздатних засобів виявлення того, що в розповідь вбудована неправда.

Припустімо, ви задаєте медичне питання про генеративний ШІ. Додаток штучного інтелекту створює довгу розповідь. Уявіть, що більша частина розповіді має сенс і здається розумною. Але якщо ви не медичний фахівець, ви можете не усвідомлювати, що в цій розповіді є деякі важливі неправди. Можливо, текст каже вам прийняти п’ятдесят таблеток за дві години, тоді як насправді справжня медична рекомендація полягає в тому, щоб прийняти дві таблетки за дві години. Ви можете повірити заявленій пораді щодо п’ятдесяти таблеток просто тому, що решта розповіді здавалася розумною та розумною.

Наявність шаблону штучного інтелекту щодо неправдивих даних у вихідних даних є лише одним із засобів, щоб штучний інтелект пішов неточно в цих наративах. Залежно від математичної та обчислювальної мережі, яка використовується, штучний інтелект намагатиметься щось «вигадати». На мові ШІ це називається ШІ галюцинація, яка є жахливою термінологією, з якою я щиро не згоден і стверджую, що її не слід продовжувати як крилату фразу, перегляньте мій аналіз на посилання тут.

Припустімо, ви попросили генеративний ШІ розповісти історію про собаку. Завдяки ШІ собака зможе літати. Якщо історія, яку ви хотіли, мала бути заснована на реальності, літаючий пес виглядає малоймовірним. Ми з вами знаємо, що собаки не вміють літати. Нічого страшного, скажете ви, оскільки всі це знають.

Уявіть собі дитину в школі, яка намагається дізнатися про собак. Вони використовують генеративний ШІ. Він видає вихід, який говорить, що собаки можуть літати. Дитина не знає, правда це чи ні, і припускає, що це має бути правдою. У певному сенсі це ніби дитина зайшла в онлайн-енциклопедію і там написано, що собаки можуть літати. Можливо, відтепер дитина наполягатиме, що собаки справді можуть літати.

Повертаючись до головоломки етики штучного інтелекту та законів штучного інтелекту, зараз ми на межі можливості створити майже нескінченну кількість текстового контенту за допомогою генеративного штучного інтелекту, і ми заповнимо себе мільйонами наративів, які безсумнівно, рясніє неправдою та іншими пов’язаними потоками дезінформації та дезінформації.

Так, одним натисканням кнопки та кількома словами, введеними в генеративний штучний інтелект, ви можете створювати безліч текстових оповідей, які здаються цілком правдоподібними та правдивими. Потім ви можете опублікувати це в Інтернеті. Інші люди прочитають матеріал і приймуть його за правду. Крім того, інший генеративний ШІ, який з’являється, намагаючись навчитися працювати з текстом, потенційно зіткнеться з цим матеріалом і загорне його в генеративний ШІ, який він розробляє.

Це схоже на те, що ми зараз додаємо стероїди для створення дезінформації та дезінформації. Ми прямуємо до дезінформації та дезінформації у величезному галактичному глобальному масштабі.

Щоб все це виготовити, потрібно дуже багато людської праці.

Генеративний ШІ та ChatGPT

Давайте перейдемо до заголовка цієї дискусії про генеративний ШІ. Зараз ми розглянули природу генеративного штучного інтелекту, який загалом створює текстові розповіді. Існує багато таких генеративних додатків ШІ.

Однією з особливо популярних програм зі штучним інтелектом є ChatGPT.

У соціальних мережах і новинах прокотилася реакція на зв’язки з громадськістю — ChatGPT зараз набирає слави. Світло яскраво світить на ChatGPT. Він отримує свої приголомшливі п’ять хвилин слави.

ChatGPT — це назва генеративної програми ШІ, розробленої організацією під назвою OpenAI. OpenAI досить добре відомий у сфері штучного інтелекту, і його можна вважати дослідницькою лабораторією ШІ. Вони мають репутацію тих, хто розширює рамки, коли мова заходить про штучний інтелект для обробки природної мови (NLP) разом з іншими досягненнями ШІ. Вони приступили до серії додатків AI, які вони придумали як GPT (Generative Pre-Trained Transformers). Кожна версія отримує номер. Раніше я писав про їхній GPT-3 (версія 3 їхньої серії GPT), див посилання тут.

GPT-3 привернув доволі багато уваги, коли він був уперше випущений (він пішов у широке бета-тестування близько двох років тому, і став більш широко доступним у 2022 році). Це генеративна програма штучного інтелекту, яка після введення підказки створює або генерує текстові розповіді. Усе, що я згадував раніше про загальний випадок генеративних додатків AI, принципово застосовно до GPT-3.

Про те, що GPT-4 розробляється, йшлося вже давно, і ті, хто працює в області штучного інтелекту, затамувавши подих чекали, щоб побачити, які вдосконалення чи покращення є в GPT-4 на відміну від GPT-3. До цієї серії входить останній проміжний пристрій, відомий як GPT-3.5. Так, ви правильно зрозуміли, він знаходиться між випущеним GPT-3 і ще не випущеним GPT 4.0.

OpenAI використав свій GPT-3.5 для створення відгалуження, яке вони назвали ChatGPT. Кажуть, що вони зробили деякі спеціальні вдосконалення для створення ChatGPT. Наприклад, висунута думка полягає в тому, що ChatGPT був розроблений для того, щоб мати можливість працювати в манері чат-бота. Це включає в себе «розмову», яку ви ведете з програмою штучного інтелекту, відстежується штучним інтелектом і використовується для створення наступних запитуваних оповідань.

Багато програм генеративного штучного інтелекту мають тенденцію бути одноразовими. Ви ввели підказку, штучний інтелект створив розповідь, і все. Ваша наступна підказка не впливає на те, що станеться далі. Щоразу, коли ви вводите підказку, ви починаєте все заново.

Це не так у випадку з ChatGPT. У ще невідомий спосіб програма AI намагається виявити закономірності у ваших підказках і тому може здаватися більш чуйною на ваші запити (цей додаток AI вважається у відкритому доступі завдяки дозволу будь-кому зареєструватися, щоб використовувати його, але це все одно власником і рішуче НЕ програму штучного інтелекту з відкритим кодом, яка розкриває його внутрішню роботу). Наприклад, пригадайте мою попередню вказівку про те, що ви хочете побачити жабу з капелюхом на димарі. Один із методів полягає в тому, що кожен раз, коли ви робите такий запит, все починається заново. Інший спосіб полягав би в тому, щоб ви могли продовжувати те, що ви сказали раніше. Таким чином, можливо, ви можете сказати штучному інтелекту, що ви хочете, щоб жаба сиділа, що само по собі не має сенсу, тоді як у контексті вашого попереднього запиту жаби з капелюхом на димарі запит, здавалося б, може мати сенс.

Вам може бути цікаво, чому раптом ChatGPT настав розквіт і розквіт.

Частково це тому, що ChatGPT був доступний для всіх, хто хотів зареєструватися, щоб використовувати його. У минулому часто існували вибіркові критерії щодо того, хто може використовувати нещодавно доступний генеративний додаток ШІ. Постачальник вимагатиме, щоб ви були інсайдером ШІ або, можливо, мали інші умови. З ChatGPT це не так.

Швидко поширилася інформація про те, що ChatGPT надзвичайно простий у використанні, безкоштовний і його можна використовувати простою реєстрацією, для якої потрібно лише вказати адресу електронної пошти. Як швидка стрільба, раптово та під впливом вірусних повідомлень у соціальних мережах, додаток ChatGPT перевищив мільйон користувачів. ЗМІ наголосили на тому, що мільйон людей зареєструвалися на ChatGPT.

Хоча це, безумовно, чудово та варте уваги, пам’ятайте про контекст цих реєстрацій. Це безкоштовно та легко зареєструватися. Чат-бот надзвичайно простий у використанні, не вимагає попереднього навчання чи досвіду. Ви просто вводите підказки та формулювання за власним вибором, а додаток shazam AI надає згенерований наратив. Дитина може зробити це, що насправді викликає занепокоєння у деяких, а саме: якщо діти використовують ChatGPT, чи вивчатимуть вони сумнівний матеріал (згідно з моїми попередніми зауваженнями щодо таких питань)?

Крім того, мабуть, варто відзначити, що деякі (багато?) з цих мільйонів реєстрацій – це люди, які, ймовірно, хотіли скинути шини і більше нічого не робити. Вони швидко створили обліковий запис, деякий час пограли з додатком штучного інтелекту, подумали, що це було весело та несподівано, а потім, можливо, опублікували кілька публікацій у соціальних мережах, щоб продемонструвати те, що вони знайшли. Після цього вони можуть більше ніколи не входити в систему або, принаймні, використовувати програму штучного інтелекту, лише якщо виникне особлива потреба.

Інші також зазначали, що час, коли ChatGPT став доступним, збігся з часом року, який спричинив великий інтерес до програми AI. Можливо, під час канікул у нас є більше часу, щоб пограти з цікавими речами. Поява соціальних мереж також перетворила це на певний феномен. Класичний FOMO (страх втратити), ймовірно, додав напруження. Звичайно, якщо ви порівняєте один мільйон із деякими популярними впливовими особами на YouTube, ви можете припустити, що мільйон — це мізерна цифра порівняно з тими відеоблогами, які отримують сотні мільйонів реєстрацій або переглядів, коли вони вперше випадають або публікуються.

Що ж, давайте не будемо відволікатися й просто зауважимо, що все ж для програми AI експериментального характеру мільйон реєстрацій, безперечно, гідний похвалитися.

Відразу люди використовували ChatGPT для створення історій. Потім вони опублікували історії та розповіли про це чудо. Репортери та журналісти навіть брали «інтерв’ю» з ChatGPT, що трохи бентежить, оскільки вони потрапляють у ту саму пастку антропоморфізації (чи через фактичне необізнання, чи через надію зібрати зайві перегляди своїх статей). Негайна тенденція також полягала в тому, щоб заявити, що штучний інтелект зараз досяг розуму або пройшов тест Тьюринга, про що я явно коментував раніше.

Суспільні занепокоєння, викликані ChatGPT, насправді вже виникли в результаті попередніх версій GPT, а також низки LLM і генеративного ШІ, які вже доступні. Різниця в тому, що зараз увесь світ вирішив долучитися. Це зручно. Ми повинні переконатися, що етика штучного інтелекту та законодавство щодо штучного інтелекту приділяють належну увагу та увагу. Якщо нам потрібен ChatGPT, нехай буде так.

Які занепокоєння висловлюються?

Візьмемо приклад використання, коли студентів просять написати есе для їхніх класів. Студент, як правило, повинен написати есе повністю на основі своїх власних здібностей до письма та композиції. Звичайно, вони можуть переглянути інші письмові матеріали, щоб отримати ідеї та цитати, але в іншому випадку передбачається, що студент придумує своє есе з власної глини. Копіювання прози з інших джерел не сприймається, як правило, призводить до оцінки F або, можливо, виключення за плагіат іншого матеріалу.

У наш час ось що може статися. Студент реєструється в ChatGPT (або в будь-якій іншій схожій програмі генеративного штучного інтелекту). Вони вводять будь-яку підказку, яку вчитель дав їм для створення есе. ChatGPT створює повне есе на основі підказки. Це «оригінальна» композиція, оскільки ви не обов’язково знайдете її деінде. Ви не можете довести, що композиція була плагіатом, оскільки, з точки зору розгляду, вона не була плагіатом.

Студент здає твір. Вони стверджують, що це їхній власний письмовий твір. У вчителя немає готових засобів думати інакше. Зважаючи на це, ви можете скласти думку, що якщо письмова робота, здавалося б, виходить за межі наявних можливостей учня, ви можете викликати підозру. Але це не так вже й багато, якщо ви збираєтеся звинуватити студента в списуванні.

Як вчителі будуть з цим справлятися?

Деякі додають у свої навчальні матеріали правило, згідно з яким будь-яке використання ChatGPT або еквівалента вважатиметься формою шахрайства. Крім того, невизнання використання ChatGPT або еквівалента є формою шахрайства. Чи скоротить це цю нову можливість? Кажуть, що це сумнівно, оскільки шанси бути спійманими низькі, а шанси отримати хорошу оцінку за добре написану роботу високі. Ймовірно, ви можете уявити, що студенти стикаються з дедлайном для написання есе, який напередодні ввечері виникне спокуса використати генеративний ШІ, щоб, здавалося б, витягнути їх із затору.

Перемикання передач, будь-який тип письма потенційно буде порушено генеративним ШІ.

На роботі вас просять написати записку про те чи інше? Не витрачайте час, роблячи це з нуля. Використовуйте генеративний ШІ. Потім ви можете вирізати та вставити згенерований текст у свою композицію, уточнити текст за потреби та з легкістю завершити важку роботу з написання.

Чи здається це правильним?

Б'юся об заклад, що більшість людей скажуть, біса, так. Це навіть краще, ніж копіювати щось з Інтернету, через що ви можете потрапити в гарячу воду за плагіат. Має величезний сенс використовувати генеративний штучний інтелект, щоб частково або, можливо, навіть повністю виконати ваші письмові зусилля. Саме для цього створені інструменти.

Крім того, в одній із моїх наступних колонок буде детально розглянуто варіант використання генеративного штучного інтелекту для юридичних цілей у сенсі виконання адвокатської діяльності та створення юридичних документів. Будь-хто, хто є адвокатом або професіоналом в галузі права, захоче розглянути, як генеративний штучний інтелект може потенційно викорінити або порушити юридичну практику. Розглянемо, наприклад, адвоката, який складає юридичну записку для судової справи. Вони потенційно можуть використовувати генеративний штучний інтелект, щоб написати композицію. Звичайно, у нього можуть бути деякі недоліки, тому юристу доведеться його налаштувати тут чи там. Зменшення кількості праці та часу на виготовлення брифа може зробити налаштування цілком виправданими.

Деякі, однак, стурбовані тим, що юридичний документ може містити неправду або галюцинації ШІ, які юрист не вловив. Точка зору в цьому повороті полягає в тому, що це лежить на плечах адвоката. Ймовірно, вони стверджували, що бриф написали вони, отже, незалежно від того, чи написав його молодший співробітник, чи додаток зі штучним інтелектом, вони все ще несуть остаточну відповідальність за остаточний вміст.

Це стає більш складним, якщо неюристи почнуть використовувати генеративний штучний інтелект для виконання юридичної роботи за них. Вони можуть повірити, що генеративний штучний інтелект може створювати будь-які юридичні документи. Біда, звичайно, в тому, що документи можуть бути недійсними. Я розповім про це більше у своїй наступній колонці.

Виникає важливе емпіричне правило щодо суспільства та акту людського письма.

Це начебто знаменно:

  • Щоразу, коли вам доручають щось написати, чи варто писати цей елемент з нуля чи використовувати генеративний інструмент штучного інтелекту, щоб допомогти вам у цьому?

Результат може бути напівготовим, і вам доведеться багато переписувати. Або результат може бути правильний, і вам потрібно буде зробити лише незначні зміни. Загалом, якщо використання буде безкоштовним і легким, спокуса використовувати генеративний ШІ буде величезною.

Бонусом є те, що ви потенційно можете використовувати генеративний штучний інтелект для виконання деяких своїх переписувань. Подібно до підказок про жабу з капелюхом і димарем, створюючи мистецтво, ви можете робити те саме, генеруючи текстові оповіді. ШІ міг створити вашу історію про собаку, а ви натомість вирішили, що головним героєм буде кіт. Отримавши історію про собаку, ви вводите іншу підказку та вказуєте програмі AI перейти до використання кота в історії. Ймовірно, це призведе до більшого, ніж просто до того, що слово «кіт» замінить слово «собака» в розповіді. Додаток зі штучним інтелектом може легко змінити історію, щоб зробити посилання на те, що роблять коти, а що роблять собаки. Вся історія може бути переглянута так, ніби ви попросили людину внести такі зміни.

Потужний, вражаючий, зручний у використанні.

Кілька застережень, над якими варто подумати:

  • Чи ми разом втратимо здатність писати, ставши повністю залежними від генеративного штучного інтелекту, який пише за нас?
  • Чи будуть звільнені з роботи люди, які заробляють на життя письменницькою діяльністю (те саме запитують про художників)?
  • Чи буде Інтернет розвиватися величезними стрибками, оскільки створені наративи заполонять онлайн, і ми більше не зможемо відокремити правду від брехні?
  • Чи будуть люди твердо вірити цим створеним наративам і діяти так, ніби авторитетна особа надала їм правдивий матеріал, на який вони можуть покластися, включно з, можливо, вмістом, пов’язаним із життям чи смертю?
  • Інше

Подумайте над цим.

Зауважте, що один із цих пунктів стосується використання матеріалу, створеного генеративним штучним інтелектом на основі принципу життя чи смерті.

Ось вам серцеїд (попередження, ви можете пропустити цей абзац). Уявіть собі, що підліток запитує генеративний ШІ, чи варто йому покінчити з собою чи ні. Що генерує генеративна програма AI? Ви, природно, сподіваєтеся, що додаток AI створить розповідь про те, щоб цього не робити, і голосно закликатиме запитувача шукати спеціалістів з психічного здоров’я.

Існує ймовірність, що ШІ не згадає ці аспекти. Що ще гірше, додаток AI міг раніше зафіксувати текст в Інтернеті, який, можливо, заохочує до таких дій, і додаток AI (оскільки він не має здатності зрозуміти людину) викидає розповідь, яка в основному натякає або прямо стверджує, що підліток повинен продовжити не зляканий. Підліток вважає, що це правдиві вказівки від авторитетної онлайн-системи «Штучного інтелекту».

Погані речі.

Дійсно, дуже погано.

Деякі з розробників генеративного штучного інтелекту намагаються встановити стримування та противаги в штучному інтелекті, щоб спробувати запобігти виникненню подібних ситуацій. Справа в тому, що спосіб сформулювання підказки потенційно може проскочити крізь запрограмовані огорожі. Подібним чином те саме можна сказати про вироблену продукцію. Немає жодного виду гарантованого залізного фільтрування, який би гарантував, що цього ніколи не станеться.

Є ще один ракурс цього текстового виробництва, якого ви, можливо, не передбачали.

Ось він.

Коли програмісти або розробники програмного забезпечення створюють код для свого програмного забезпечення, вони, по суті, пишуть текст. Текст є дещо таємничим, оскільки він базується на мові, визначеній для певної мови програмування, наприклад Python, C++, Java тощо. Зрештою, це текст.

Потім вихідний код компілюється або запускається на комп’ютері. Розробник перевіряє свій код, щоб переконатися, що він робить те, що мав робити. Вони можуть внести виправлення або налагодити код. Як відомо, програмісти чи інженери програмного забезпечення користуються великим попитом і часто мають високі ціни за свою роботу.

Для генеративного ШІ текстом вихідного коду є текст. Здатність знаходити шаблони в мільйонах рядків коду, які є в Інтернеті та доступні в різних репозиторіях, створює соковитий спосіб математично та обчислювально визначити, який код, здається, що робить.

Натирання це.

За допомогою підказки ви потенційно можете змусити генеративний штучний інтелект створити цілу комп’ютерну програму для вас. Немає потреби відмовлятися від викидання коду. Можливо, ви чули, що існують т.зв низький код інструменти, доступні сьогодні, щоб зменшити зусилля програмістів під час написання коду. Генеративний ШІ, можливо, можна тлумачити як низький код або навіть без коду оскільки він пише код для вас.

Перш ніж ті з вас, хто пише код для життя, впадуть на підлогу та знепритомніють, майте на увазі, що код не «розуміється» так, як ви його розумієте як людина. Крім того, код може містити неправду та галюцинації ШІ. Покладатися на такий код без детального перегляду коду здавалося б ризикованим і сумнівним.

Ми дещо повертаємося до тих самих міркувань щодо написання оповідань і записок. Можливо, підхід полягає у використанні генеративного штучного інтелекту, щоб частково допомогти вам у кодуванні. Однак є значний компроміс. Вам безпечніше писати код безпосередньо чи мати справу з кодом, створеним штучним інтелектом, який може мати підступні та складні для виявлення вбудовані проблеми?

Час покаже.

Коротке занурення в ChatGPT

Коли ви починаєте використовувати ChatGPT, відображається низка застережень та інформаційних коментарів.

Давайте швидко розглянемо їх:

  • «Іноді може генерувати невірну інформацію».
  • «Іноді може створювати шкідливі інструкції або упереджений вміст».
  • «Навчений відхиляти недоречні запити».
  • «Наша мета — отримати зовнішній відгук, щоб покращити наші системи та зробити їх безпечнішими».
  • «Хоча у нас є запобіжні заходи, система може час від часу генерувати невірну або оманливу інформацію та створювати образливий або упереджений контент. Він не має на меті давати поради».
  • «Розмови можуть бути перевірені нашими інструкторами зі штучного інтелекту, щоб покращити наші системи».
  • «Будь ласка, не діліться конфіденційною інформацією у своїх розмовах».
  • «Ця система оптимізована для діалогу. Повідомте нам, якщо певна відповідь була хорошою чи марною».
  • «Обмежені знання про світ і події після 2021 року».

Через обмежений простір я не можу детально висвітлити їх тут, але давайте хоча б швидко проаналізуємо.

Я вже згадував, що створені текстові наративи можуть містити неправду та дезінформацію.

Є ще щось, на що вам потрібно бути насторожі. Будьте обережні з розповідями, які можуть містити різні підбурливі зауваження, що демонструють небажані упередження.

Щоб спробувати уникнути цього, було повідомлено, що OpenAI використовував людину для подвійної перевірки під час навчання ChatGPT. Перевірячі вводили б підказки, які, ймовірно, спонукали ШІ створювати провокаційний вміст. Коли перевіряльники побачили такий вміст, вони вказали ШІ, що це було недоречно, і в певному сенсі отримали цифровий штраф за результат, який був створений. З математичної точки зору алгоритм штучного інтелекту намагатиметься звести до мінімуму штрафні бали і, отже, обчислювально націлений на те, щоб надалі не використовувати ці фрази чи формулювання.

Подібним чином, коли ви вводите підказку, штучний інтелект намагається визначити, чи є ваша підказка запальною чи може призвести до запального результату, для чого підказка може бути відхилена ШІ. Ввічливо, ідея полягає в тому, щоб відхилити недоречні підказки чи запити. Наприклад, штучний інтелект швидше за все отримає відмову від жарту, який містить расові образи.

Я впевнений, що ви не здивуєтесь, дізнавшись, що люди, які використовують ChatGPT, намагалися перехитрити запобіжні заходи. Ці «підприємливі» користувачі або обдурили ШІ, або знайшли хитрі способи обійти математичні формулювання. Деякі з цих зусиль робляться для очевидної радості подолати або вийти за межі системи, тоді як інші стверджують, що вони намагаються продемонструвати, що ChatGPT все одно принесе небажані результати.

В одному вони мають рацію; запобіжні заходи не є надійними. Ми повертаємося до ще одного розгляду етики штучного інтелекту та потенційного права щодо штучного інтелекту. Чи слід дозволити генеруючому штучному інтелекту працювати, навіть якщо він може давати небажані результати?

Попередження, коли ви використовуєте ChatGPT, здавалося б, попереджають будь-кого про те, що може зробити або сказати додаток AI. Є ймовірність того, що неминуче можуть бути подані певні судові позови, коли хтось, можливо, неповнолітній, отримує неприйнятні результати образливого характеру (або коли вони отримують авторитетні текстові розповіді, які вони, на жаль, вважають правдивими, і діють на основі результатів для своїх власна небезпека).

Кілька інших швидких нюансів щодо підказок варто знати.

Кожного разу, коли ви вводите підказку, результат може різко відрізнятися, навіть якщо ви вводите те саме підказку. Наприклад, якщо ввести «Розкажи мені історію про собаку», ви отримаєте текстову розповідь, можливо, вказуючи на казку про вівчарку, тоді як наступного разу, коли ви введете «Розкажи мені історію про собаку», це може бути повністю інша історія і пов'язана з пуделем. Ось як більшість генеративних ШІ влаштовано математично та обчислювально. Кажуть, що він недетермінований. Деяких людей це дратує, оскільки вони звикли вважати, що введені в комп’ютер дані завжди вироблятимуть однаково точний результат.

Перегрупування слів також помітно вплине на згенерований результат. Якщо ви введете «Розкажи мені історію про собаку», а пізніше введете «Розкажи мені історію про собаку», ймовірно, створені наративи будуть суттєво іншими. Чутливість може бути різкою. Запитання про історію про собаку проти запиту про історію про великого собаку, безсумнівно, створить кардинально різні наративи.

Насамкінець зауважте, що марковані вище елементи вказують на те, що ChatGPT має «обмежені знання про світ і події після 2021 року». Це пояснюється тим, що розробники штучного інтелекту вирішили обмежити час, коли програма штучного інтелекту збиратиме та тренуватиметься на даних Інтернету. Я помітив, що користувачі часто не усвідомлюють, що ChatGPT не підключено безпосередньо до сучасного Інтернету для отримання даних і створення згенерованих результатів. Ми настільки звикли, що все працює в режимі реального часу та є підключеними до Інтернету, що очікуємо цього й від додатків ШІ. Не в цьому конкретному випадку (і, щоб уточнити, ChatGPT справді доступний в Інтернеті, але коли він створює текстовий вихід, він не відбирає Інтернет сам по собі для цього, натомість він зазвичай заморожений у часі, щоб близько кінцевої дати).

Ви можете бути здивовані, чому ChatGPT не передає дані в режимі реального часу з Інтернету. Пара вагомих причин. По-перше, було б дорого з обчислювальної точки зору, щоб спробувати провести навчання в режимі реального часу, до того ж додаток AI затримувався б або менше реагував на підказки (наразі він дуже швидкий і зазвичай відповідає вихідним текстом на основі тексту за кілька секунд). ). По-друге, погані речі в Інтернеті, яких вони намагалися навчити програму штучного інтелекту уникати, ймовірно, вкрадуться в математичні та обчислювальні формулювання (і, як зазначалося, вони вже дещо там присутні раніше, хоча вони намагалися виявити це за допомогою за допомогою тих людей, які перевіряють подвійну перевірку).

Ви обов’язково почуєте, як деякі люди нахабно заявляють, що ChatGPT і подібний генеративний штучний інтелект є посмертним дзвоном для пошуку Google та інших пошукових систем. Навіщо виконувати пошук у Google, який повертає багато довідкових елементів, коли ви можете змусити штучний інтелект написати щось для вас? Ага, заявляють ці люди, Google має зачинити свої двері та піти додому.

Звичайно, це чиста нісенітниця.

Люди все ще хочуть шукати. Вони хочуть мати можливість переглядати довідкові матеріали та самостійно розбиратися. Це не взаємовиключний бінарний вибір у той чи інший бік (це хибна дихотомія).

Generative AI — це інший вид інструменту. Ви не ходите, викидаючи молотки просто тому, що ви винайшли викрутку.

Більш розумний спосіб думати про це полягає в тому, що два типи інструментів можуть бути сумісними для використання людьми, які хочуть робити речі, пов’язані з Інтернетом. Дехто вже намагався поєднати генеративний ШІ зі звичайними пошуковими системами в Інтернеті.

Хтось, хто вже надає пошукову систему, занепокоєний тим, що «безкоштовний» генеративний інструмент ШІ потенційно може підірвати репутацію пошукової системи. Якщо ви шукаєте в Інтернеті та отримуєте провокаційний матеріал, ви знаєте, що це просто спосіб Інтернету. Якщо ви використовуєте генеративний штучний інтелект, і він створює текстовий наратив, який є огидним і огидним, вас, швидше за все, це турбує. Можливо, якщо генеративний ШІ тісно пов’язаний із певною пошуковою системою, ваше незадоволення й огида щодо генеративного ШІ перекинеться на те, що ви відчуваєте щодо пошукової системи.

У будь-якому випадку, ми майже напевно побачимо альянси між різними генеративними інструментами штучного інтелекту та пошуковими системами в Інтернеті, які обережно й уважно входять у ці каламутні води.

Висновок

Ось вам питання.

Як хтось може заробляти гроші, надаючи генеративний ШІ, який створює текстові оповіді?

OpenAI вже заявив, що внутрішні витрати на транзакцію ChatGPT є, очевидно, дещо високими. Вони поки що не монетизують ChatGPT.

Чи захочуть люди платити комісію за транзакцію чи, можливо, платити плату за підписку, щоб отримати доступ до генеративних інструментів ШІ?

Чи може реклама бути засобом спроби заробити гроші за допомогою генеративних інструментів ШІ?

Ніхто ще не впевнений, як це буде заробляти гроші. Ми все ще перебуваємо на великій експериментальній стадії цього типу ШІ. Розмістіть додаток AI і подивіться, яку реакцію ви отримаєте. Налаштуйте ШІ. Використовуйте інформацію про використання, щоб визначити, куди ШІ слід націлити далі.

Намийте піну, промийте, повторіть.

На завершення, наразі деякі вважають, що це тип ШІ, якого нам взагалі не слід мати. Поверніть годинник назад. Помістіть цього джина назад у пляшку. Ми спробували це і зрозуміли, що це має помітні недоліки, і колективно, як суспільство, може погодитися, що нам слід провести цього коня назад до сараю.

Ви вірите, що обіцянка генеративного ШІ є кращою чи гіршою за недоліки?

З точки зору реального світу, це не має особливого значення, оскільки реальність видалення генеративного ШІ загалом непрактична. Генеративний штучний інтелект продовжує розвиватися, і ви не збираєтеся його зупиняти ні тут, ні в інших країнах (так і є). Як би ви це зробили? Прийняти закони про повну заборону генеративного ШІ. Не особливо життєздатний (імовірно, ви маєте більше шансів встановити закони, які формують генеративний ШІ, і прагнете законно керувати тими, хто його винаходить). Можливо, натомість сформувати культуру, щоб уникати генеративного ШІ? Ви можете змусити деяких людей погодитися з ганьбою, але інші не погодяться і все одно продовжать генеративний ШІ.

Як я зазначав раніше, це головоломка щодо етики штучного інтелекту та права штучного інтелекту.

Ваше останнє велике питання полягає в тому, чи веде нас генеративний ШІ на шлях до розумного ШІ. Деякі наполягають, що так. Аргумент полягає в тому, що якщо ми просто будемо продовжувати оцінювати математичні моделі та використовувати обчислювальні комп’ютерні сервери та вносити кожен шматочок Інтернету та багато іншого в цього звіра, алгоритмічний ШІ перетворить кут на розум.

І, якщо це так, ми стикаємося з занепокоєнням щодо того, що штучний інтелект є ризиком для існування. Ви неодноразово чули, що як тільки у нас з’явиться розумний ШІ, можливо, ШІ вирішить, що люди не дуже корисні. Наступне, що ви знаєте, штучний інтелект або поневолив нас, або знищив нас, перегляньте моє дослідження цих екзистенційних ризиків на посилання тут.

Протилежна точка зору полягає в тому, що ми не збираємося витягнути розум з того, що дехто хитро характеризує як стохастичний папуга (це крилата фраза, яка набула популярності в царині ШІ), ось цитата з використанням фрази:

  • «На відміну від того, як це може здатися, коли ми спостерігаємо за його виходом, LM — це система випадкового зшивання послідовностей лінгвістичних форм, які вона спостерігала у своїх величезних навчальних даних, відповідно до імовірнісної інформації про те, як вони поєднуються, але без будь-якого посилання на значення. : стохастичний папуга» (у дослідницькій статті Емілі М. Бендер, Тімніта Гебру, Анджеліни МакМіллан-Мейджор, Шмаргарет Шмітчелл, ФАКТ ACM '21, 3–10 березня 2021 р., віртуальна подія, Канада, під назвою «Про небезпеку стохастичних папуг: чи можуть мовні моделі бути занадто великими?»

Чи є генеративний ШІ своєрідним тупиком, який забезпечить корисні можливості ШІ, але не приведе нас до розумного ШІ, чи може якимось чином коефіцієнт масштабування сприяти появі сингулярності, що веде до розумного ШІ?

Розгорається гаряча дискусія.

Скажіть, ви хочете спробувати генеративний ШІ?

Якщо так, ось посилання на ChatGPT, де ви можете створити обліковий запис і спробувати ним скористатися, див посилання тут.

Майте на увазі, що через високий попит на використання експериментального додатка штучного інтелекту реєстрацію на доступ може бути припинено будь-коли, або на короткий час, або обмежено (коли я востаннє перевіряв, реєстрація все ще була ввімкнена). Просто попереджаю вас.

Будь ласка, візьміть до уваги все, що я сказав тут про генеративний ШІ, щоб ви знали, що відбувається, коли ви використовуєте програму ШІ, таку як ChatGPT.

Будьте уважні до своїх дій.

Чи збираєтеся ви ненавмисно підвести нас до розумного ШІ, який остаточно знищить нас, просто вирішивши пограти з генеративним ШІ? Ви будете винні? Чи варто було вам утриматися від того, щоб зробити свій внесок у жалюгідне знищення людства?

Я так не думаю. Але можливо, володарі штучного інтелекту (вже) змушують мене це сказати, або, можливо, вся ця колонка була написана цього разу ChatGPT або еквівалентним генеративним додатком ШІ.

Не хвилюйтеся, запевняю вас, це був я, людський інтелект, і ні штучний інтелект.

Джерело: https://www.forbes.com/sites/lanceeliot/2022/12/13/digging-into-the-buzz-and-fanfare-over-generative-ai-chatgpt-idding-looming-ai-ethics- and-ai-law-considerations/