Generative AI ChatGPT може тривожно поглинути ваші приватні та конфіденційні дані, попереджає про етику штучного інтелекту та законодавство про штучний інтелект

Тепер ви бачите свої дані, а тепер ні.

Тим часом ваші цінні дані стали як би частиною колективу.

Я маю на увазі аспект, який може бути досить несподіваним для тих із вас, хто нетерпляче та серйозно використовує новітні технології штучного інтелекту (ШІ). Дані, які ви вводите в програму зі штучним інтелектом, потенційно не є повністю приватними для вас і лише для вас. Цілком можливо, що ваші дані використовуватимуться виробником штучного інтелекту, імовірно, для покращення своїх послуг штучного інтелекту або можуть використовуватися ними та/або навіть їхніми партнерами для різних цілей.

Тепер вас попереджено.

Ця передача ваших даних відбувається найнешкідливішим із способів і потенційно тисячами чи мільйонами людей. Як так? Існує тип ШІ, відомий як генеративний ШІ, який нещодавно привернув гучні заголовки та привернув увагу широкої громадськості. Найвідомішим із існуючих генеративних додатків штучного інтелекту є ChatGPT, розроблений фірмою OpenAI.

У ChatGPT імовірно близько мільйона зареєстрованих користувачів. Багато з цих користувачів, здається, із задоволенням випробували цю найпопулярнішу та найновішу генеративну програму ШІ. Процес надзвичайно простий. Ви вводите текст як підказку, і вуаля, програма ChatGPT генерує вихідний текст, який зазвичай має форму есе. Дехто називає це перетворенням тексту в текст, хоча я віддаю перевагу позначати це перетворенням тексту в есе, оскільки це словосполучення має більш повсякденний сенс.

Спочатку користувач-новачок, ймовірно, введе щось веселе та безтурботне. Розкажіть мені про життя та часи Джорджа Вашингтона, хтось може ввійти як підказка. Тоді ChatGPT підготував би есе про нашого легендарного першого президента. Есе було б абсолютно вільним, і вам було б важко розрізнити, що воно створене за допомогою програми AI. Це захоплююча подія.

Цілком імовірно, що після деякого часу попрацювання сегмент новачків насититься й, можливо, вирішить припинити бавитись із ChatGPT. Тепер вони подолали свій FOMO (страх втратити), зробивши це після експериментів із додатком штучного інтелекту, про який, здається, балакають майже всі. Справа зроблена.

Хоча деякі почнуть думати про інші й більш серйозні способи використання генеративного ШІ.

Можливо, скористайтеся ChatGPT, щоб написати ту записку, яку ваш бос наполягав написати. Все, що вам потрібно зробити, це надати підказку з пунктами, які ви маєте на увазі, і наступне, що ви дізнаєтесь, ChatGPT створить цілу пам’ятку, яка змусить вашого боса пишатися вами. Ви копіюєте виведений есе з ChatGPT, вставляєте його в офіційний шаблон компанії у своєму пакеті обробки текстів і надсилаєте стильний меморандум своєму менеджеру електронною поштою. Ви варті мільйона баксів. І ви використали свій мозок, щоб знайти зручний інструмент, щоб виконати важку роботу за вас. Погладьте себе по спині.

Це ще не все.

Так, є більше.

Майте на увазі, що генеративний ШІ може виконувати низку інших завдань, пов’язаних із письмом.

Наприклад, припустімо, що ви написали якусь розповідь для цінного клієнта і дуже хочете, щоб матеріал був рецензований, перш ніж він вийшов за двері.

Простенька.

Ви вставляєте текст своєї розповіді в підказку ChatGPT, а потім наказуєте ChatGPT проаналізувати текст, який ви склали. Отримане есе може глибоко заглибитися у ваші формулювання та, на ваш приємний подив, спробує перевірити значення сказаного вами (виходячи далеко за рамки перевірки орфографії чи аналізатора граматики). Додаток зі штучним інтелектом може виявити помилки в логіці вашої розповіді або може виявити протиріччя, які ви не усвідомлювали у своїх власних творах. Це майже так, ніби ви найняли хитрого редактора-людини, щоб оглянути вашу чернетку та надати перелік корисних пропозицій і зауважених проблем (ну, я хочу категорично заявити, що я не намагаюся антропоморфізувати програму AI, зокрема, що редактор-людина є людина, тоді як додаток AI є просто комп’ютерною програмою).

Слава Богу, що ви скористалися генеративним додатком AI, щоб ретельно перевірити свій дорогоцінний письмовий наратив. Ви, безсумнівно, віддасте перевагу, щоб штучний інтелект знаходив ті тривожні письмові проблеми, а не після надсилання документа вашому цінному клієнту. Уявіть, що ви склали розповідь для когось, хто найняв вас розробити досить важливе зображення. Якби ви надали оригінальну версію клієнту перед тим, як перевірити програму AI, ви могли б зазнати великого збентеження. Клієнт майже напевно мав би серйозні сумніви щодо ваших навичок виконувати роботу, яка була запропонована.

Піднімемо ставку.

Розглянемо створення юридичних документів. Очевидно, це особливо серйозна справа. Слова та те, як вони складені, можуть означати жвавий правовий захист або жахливе правове лихо.

У моїх постійних дослідженнях і консультаціях я регулярно спілкуюся з багатьма адвокатами, які дуже зацікавлені у використанні штучного інтелекту в галузі права. Різноманітні програми LegalTech підключаються до можливостей ШІ. Юрист може використовувати генеративний ШІ для складання проекту договору або інших юридичних документів. Крім того, якщо адвокат сам зробив початкову чернетку, він може передати текст генеративному додатку зі штучним інтелектом, такому як ChatGPT, щоб поглянути та побачити, які діри чи прогалини можуть бути виявлені. Щоб дізнатися більше про те, як адвокати та юридична сфера вирішують використовувати штучний інтелект, перегляньте моє обговорення на посилання тут.

Але ми готові впоратися з цим.

Адвокат бере проект контракту та копіює текст у підказку для ChatGPT. Додаток AI робить огляд для юриста. Виявляється, ChatGPT знаходить кілька помилок. Юрист переглядає договір. Вони також можуть попросити ChatGPT запропонувати переформулювати або переробити створений текст. Нова та краща версія контракту створюється генеративним додатком AI. Юрист бере виведений текст і поміщає його в текстовий файл. Послання відправляється їхньому клієнту. Місія виконана.

Чи можете ви здогадатися, що також щойно сталося?

За лаштунками та під капотом договір міг бути проковтнутий, як риба в пащу кита. Хоча цей адвокат, який використовує штучний інтелект, може цього не усвідомлювати, текст контракту, розміщений як підказка в ChatGPT, потенційно може бути поглинутий додатком штучного інтелекту. Тепер це корм для зіставлення шаблонів та інших обчислювальних тонкощів додатка ШІ. Це, у свою чергу, можна використовувати різними способами. Якщо в чернетці є конфіденційні дані, це також потенційно зараз в межах ChatGPT. Ваша підказка, надана додатку AI, тепер так чи інакше нібито є частиною колективу.

Крім того, опублікований твір також вважається частиною колективу. Якщо ви попросили ChatGPT змінити чернетку для вас і представити нову версію контракту, це тлумачиться як вихідне есе. Результати ChatGPT також є типом вмісту, який можна зберегти або іншим чином трансформувати за допомогою програми AI.

Ой, можливо, ви невинно повідомили особисту або конфіденційну інформацію. Не добре. Крім того, ви б навіть не підозрювали, що зробили це. Прапори не піднімалися. Не пролунав гудок. Жодне миготливе світло не вмикалося, щоб шокувати вас у реальність.

Ми могли б передбачити, що люди, які не є юристами, можуть легко зробити таку помилку, але для досвідченого адвоката зробити таку ж помилку новачка майже неможливо. Тим не менш, ймовірно, зараз є професіонали в галузі права, які роблять таку саму потенційну помилку. Вони ризикують порушити важливий елемент привілею між адвокатом і клієнтом і, можливо, порушити Типові правила професійної поведінки (MRPC) Американської асоціації юристів (ABA). Зокрема: «Адвокат не повинен розкривати інформацію, що стосується представництва інтересів клієнта, якщо клієнт не дає інформованої згоди, розголошення неявно дозволено для здійснення представництва або розголошення дозволено пунктом (b)» (цитовано з MRPC, і для яких винятки, пов’язані з підрозділом b, здається, не охоплюють використання генеративної програми ШІ незахищеним способом).

Деякі адвокати можуть намагатися виправдати свою провину, стверджуючи, що вони не технічні чарівники і що вони не мали готових засобів дізнатися, що введення ними конфіденційної інформації в програму генеративного штучного інтелекту може бути певним порушенням. ABA чітко зазначила, що обов’язок юристів полягає в тому, щоб бути в курсі останніх питань штучного інтелекту та технологій з юридичної точки зору: «Щоб підтримувати необхідні знання та навички, юрист повинен бути в курсі змін у законодавстві та своїй практиці, зокрема переваги та ризики, пов’язані з відповідними технологіями, брати участь у безперервному навчанні та освіті та відповідати всім вимогам щодо безперервної юридичної освіти, яким підлягає юрист» (згідно MRPC).

Кілька положень входять до цієї схожості юридичного обов’язку, зокрема збереження конфіденційної інформації клієнта (Правило 1.6), захист власності клієнта, наприклад даних (Правило 1.15), належне спілкування з клієнтом (Правило 1.4), отримання інформованої згоди клієнта (Правило 1.6), а також забезпечення компетентного представництва від імені клієнта (Правило 1.1). Крім того, є маловідома, але дуже помітна резолюція, сфокусована на штучному інтелекті, прийнята ABA: «Що Американська асоціація юристів закликає суди та юристів розглянути нові етичні та правові проблеми, пов’язані з використанням штучного інтелекту («ШІ»). у юридичній практиці, включаючи: (1) упередженість, можливість пояснення та прозорість автоматизованих рішень, прийнятих ШІ; (2) етичне та корисне використання ШІ; і (3) контроль і нагляд за ШІ та постачальниками, які надають ШІ».

Слова мудрі для моїх друзів і колег по праву.

Суть справи полягає в тому, що майже будь-хто може потрапити в затор, використовуючи генеративний ШІ. Неюристи можуть зробити це через передбачувану відсутність юридичної кмітливості. Юристи теж можуть зробити це, можливо, закохані в ШІ або не роблячи глибокого вдиху та розмірковуючи про те, які правові наслідки можуть виникнути при використанні генеративного ШІ.

Потенційно ми всі в одному човні.

Ви також повинні розуміти, що ChatGPT — не єдиний генеративний AI-додаток у блоці. Існують інші програми генеративного штучного інтелекту, якими ви можете скористатися. Ймовірно, вони також вирізані з однієї тканини, а саме те, що вхідні дані, які ви вводите як підказки, і результати, які ви отримуєте як згенеровані виведені есе, вважаються частиною колективу та можуть використовуватися виробником ШІ.

У сьогоднішній колонці я збираюся розкрити характер того, як дані, які ви вводите, і дані, які ви отримуєте від генеративного штучного інтелекту, можуть бути потенційно скомпрометовані щодо конфіденційності та конфіденційності. Розробники штучного інтелекту оприлюднюють свої ліцензійні вимоги, і вам було б розумно ознайомитися з цими життєво важливими положеннями, перш ніж почати активно використовувати програму штучного інтелекту з будь-якою схожістю реальних даних. Я розповім вам приклад такого ліцензування, роблячи це для програми ChatGPT AI.

До всього цього входить низка міркувань етики штучного інтелекту та законодавства щодо штучного інтелекту.

Будь ласка, зверніть увагу, що тривають зусилля з впровадження етичних принципів штучного інтелекту в розробку та впровадження програм ШІ. Зростаючий контингент занепокоєних і колишніх етиків штучного інтелекту намагається переконатися, що зусилля з розробки та впровадження ШІ враховують точку зору ШІ для добра і запобігання ШІ для поганого. Подібним чином пропонуються нові закони про штучний інтелект, які розглядаються як потенційні рішення для запобігання спробам штучного інтелекту порушувати права людини тощо. Про те, як я постійно висвітлюю етику штучного інтелекту та право штучного інтелекту, див посилання тут та посилання тут, просто назвемо декілька.

Існують значні етичні нюанси та положення щодо штучного інтелекту, пов’язані з тим, як виробники штучного інтелекту можуть або повинні мати справу з даними чи інформацією, які здаються їхнім користувачам приватними чи конфіденційними. Ви, ймовірно, також знаєте, що низка існуючих законів вражає суть того, як технологічні організації мають обробляти дані. Також є ймовірність, що нещодавно запропоновані закони про штучний інтелект також перетинатимуть ту саму територію. Дивіться, наприклад, моє висвітлення Білль про права AI та інші юридичні суперечки щодо штучного інтелекту посилання тут.

Ось основні висновки цієї дискусії:

  • Будьте дуже, дуже, дуже обережні щодо того, які дані чи інформацію ви вирішуєте додати у свої підказки під час використання генеративного штучного інтелекту, а також будьте надзвичайно обережні та передбачте, які типи виведених есе ви можете отримати, оскільки результати також можуть бути поглинені.

Чи означає це, що ви не повинні використовувати генеративний ШІ?

Ні, це зовсім не те, що я кажу.

Використовуйте генеративний ШІ до душі. Суть полягає в тому, що ви повинні бути уважними до того, як ви його використовуєте. Дізнайтеся, які умови ліцензування пов’язані з використанням. Вирішіть, чи можете ви жити з цими умовами. Якщо є способи повідомити виробника штучного інтелекту про те, що ви хочете застосувати певні види додаткового захисту чи дозволів, переконайтеся, що ви це робите.

Я також згадаю ще один аспект, який, як я розумію, зведе деяких людей з розуму. Ось іде. Незважаючи на те, які умови ліцензування, ви також повинні припустити, що існує ймовірність того, що ці вимоги можуть бути не повністю дотримані. Справи можуть піти не так. Речі можуть прослизнути між щілинами. Зрештою, звичайно, ви можете подати судову справу проти виробника штучного інтелекту за те, що він не дотримується їхніх умов, але це дещо після того, як кінь уже вийде з хліва.

Потенційно безпечним способом продовження було б створити власний екземпляр у ваших власних системах, у хмарі чи власних (і, припустивши, що ви дотримуєтеся належних заходів кібербезпеки, яких, правда, деякі не роблять, і вони гірші у власній хмарі, ніж за допомогою хмари постачальника програмного забезпечення). Трохи набридливою проблемою є те, що мало хто з генеративних широкомасштабних додатків AI зараз це дозволяє. Вони майже всі працюють лише на основі нашої хмари. Мало хто надав можливість створити цілий екземпляр спеціально для вас. Я передбачив, що ми поступово побачимо цей варіант, хоча спочатку він буде досить дорогим і дещо складним, дивіться мої прогнози на посилання тут.

Як інакше особливо спритні та особливо проникливі люди потрапляють у болото, що підриває конфіденційність даних чи інформації?

Привабливість цих генеративних програм штучного інтелекту стає досить магнетичною, коли ви починаєте ними користуватися. Крок за кроком ви опиняєтеся зачарованими і вирішуєте все далі й далі занурюватися у генеративні води ШІ. Наступне, що ви знаєте, ви з готовністю передаєте власний вміст, який має бути приватним і конфіденційним, у генеративну програму AI.

Отримайте опір бажанням і, будь ласка, утримайтеся від поступового потрапляння в неприємну пастку.

Для бізнес-лідерів і керівників найвищого рівня таке ж попередження стосується вас і всіх людей у ​​вашій компанії. Старші керівники теж охоплені ентузіазмом і подивом від використання генеративного ШІ. Вони дійсно можуть зіпсуватись і потенційно ввести секретну інформацію найвищого рівня в програму штучного інтелекту.

Крім того, у них можуть бути численні ліги їхніх співробітників, які також грають із генеративним ШІ. Багато з цих уважних співробітників бездумно і щасливо вводять особисту та конфіденційну інформацію компанії в ці програми ШІ. Згідно з останніми новинами, Amazon, очевидно, виявив, що деякі співробітники вводять різну конфіденційну інформацію в ChatGPT. Повідомляється, що всередину було надіслано юридичне попередження з проханням бути обережними при використанні непереборного додатка ШІ.

Загалом, трохи іронії приходить у зростаючі явища, коли співробітники мимовільно вводять конфіденційні дані в ChatGPT та інший генеративний ШІ. Дозвольте мені розповісти. Сучасні компанії зазвичай мають сувору політику кібербезпеки, яку вони старанно розробили та впровадили. Існують численні технологічні засоби захисту. Надія полягає в тому, щоб запобігти випадковому випуску важливого матеріалу. Постійний барабанний бій — бути обережним, коли ви відвідуєте веб-сайти, будьте обережні, коли використовуєте будь-які несхвалені програми тощо.

Поряд з’являються генеративні програми ШІ, такі як ChatGPT. Новини про програму штучного інтелекту зашкалюють і привертають широку увагу. Виникає божевілля. Люди в цих компаніях, які мають усі ці засоби захисту кібербезпеки, вирішують використовувати генеративний додаток AI. Спочатку вони безтурботно граються з ним. Потім вони починають вводити дані компанії. Ну, зараз вони потенційно розкрили інформацію, яку не слід було розголошувати.

Нова блискуча іграшка, яка магічним чином обходить мільйони доларів витрат на захист кібербезпеки та постійне навчання того, чого не слід робити. Але, привіт, це захоплююче використовувати генеративний штучний інтелект і бути частиною «вхідного» натовпу. Мабуть, це має значення.

Сподіваюся, ви зрозуміли мою думку щодо особливої ​​обережності.

Давайте розглянемо докладніше, як генеративний ШІ технічно працює з текстом підказок і виведених есе. Ми також розглянемо деякі умови ліцензування на прикладі ChatGPT. Пам’ятайте, що я не збираюся охоплювати всю палітру цих елементів ліцензування. Обов’язково залучіть свого юридичного консультанта для будь-яких генеративних програм штучного інтелекту, які ви можете використовувати. Крім того, ліцензування відрізняється від виробника штучного інтелекту до виробника штучного інтелекту, крім того, певний виробник штучного інтелекту може змінити свою ліцензію, тому переконайтеся, що залишаєтеся пильними щодо того, що передбачає остання версія ліцензії.

У нас є кілька захоплюючих розповідей про цю п’янку тему.

По-перше, ми повинні переконатися, що ми всі знаємо, з чого складається Generative AI, а також що таке ChatGPT. Коли ми охопимо цей фундаментальний аспект, ми зможемо зробити переконливу оцінку дзеркальної метафори, пов’язаної з цим типом ШІ.

Якщо ви вже добре знайомі з Generative AI і ChatGPT, ви можете проскочити наступний розділ і перейти до наступного. Я вважаю, що всі інші знайдуть для себе повчальні життєво важливі подробиці про ці питання, якщо уважно прочитають розділ і швидко ввійдуть у курс.

Короткий посібник про Generative AI і ChatGPT

ChatGPT — це інтерактивна розмовна система загального призначення зі штучним інтелектом, по суті, здавалося б, нешкідливий звичайний чат-бот, проте він активно й жадібно використовується людьми таким чином, що застає багатьох зненацька, як я розповім пізніше. Ця програма штучного інтелекту використовує техніку та технологію в області штучного інтелекту, яку часто називають Генеративний ШІ. AI генерує такі результати, як текст, що й робить ChatGPT. Інші додатки штучного інтелекту на основі генерації створюють зображення, як-от малюнки чи ілюстрації, тоді як інші створюють аудіофайли чи відео.

У цьому обговоренні я зосереджусь на текстових генеративних програмах ШІ, оскільки це те, що робить ChatGPT.

Програми Generative AI надзвичайно прості у використанні.

Все, що вам потрібно зробити, це ввести підказку, і програма AI згенерує для вас есе, яке намагатиметься відповісти на вашу підказку. Складений текст буде здаватися, ніби твір написано людською рукою і розумом. Якщо ви введете підказку «Розкажіть мені про Авраама Лінкольна», генеративний ШІ надасть вам есе про Лінкольна. Це зазвичай класифікується як генеративний ШІ, який працює перетворення тексту в текст або деякі вважають за краще так називати текст до есе вихід. Як згадувалося, існують інші режими генеративного штучного інтелекту, такі як перетворення тексту в мистецтво та перетворення тексту у відео.

Вашою першою думкою може бути те, що ця генеративна здатність не виглядає такою великою проблемою з точки зору створення есе. Ви можете легко здійснити онлайн-пошук в Інтернеті та легко знайти тонни й тонни есе про президента Лінкольна. Головна перевага генеративного штучного інтелекту полягає в тому, що згенероване есе є відносно унікальним і забезпечує оригінальну композицію, а не копію. Якби ви спробували десь знайти есе, створене штучним інтелектом, в Інтернеті, ви б навряд чи його знайшли.

Генеративний штучний інтелект попередньо навчений і використовує складну математичну та обчислювальну формулу, яка була створена шляхом вивчення шаблонів у написаних словах та історіях у мережі. У результаті вивчення тисяч і мільйонів письмових уривків ШІ може викинути нові есе та історії, які є сумішшю знайденого. Завдяки додаванню різних ймовірнісних функціональних можливостей отриманий текст є майже унікальним у порівнянні з тим, що використовувалося в навчальному наборі.

Ось чому виник галас з приводу того, що учні можуть шахраювати, коли пишуть есе поза аудиторією. Вчитель не може просто взяти есе, яке брехливі учні стверджують, що це їхній власний твір, і спробувати з’ясувати, чи його скопійовано з іншого джерела в Інтернеті. Загалом, в Інтернеті не буде жодного остаточного попереднього есе, яке б відповідало створеному ШІ есе. Загалом, вчителю доведеться неохоче визнати, що учень написав есе як оригінальний твір.

Є додаткові занепокоєння щодо генеративного ШІ.

Одним із суттєвих недоліків є те, що есе, створені програмою генеративного штучного інтелекту, можуть містити різні неправдиві факти, зокрема явно неправдиві факти, факти, які вводять в оману, і очевидні факти, які повністю сфабриковані. Ці сфабриковані аспекти часто називають формою ШІ галюцинації, крилата фраза, яку я не люблю, але, на жаль, здається, все одно набуває популярності (щоб отримати моє детальне пояснення, чому це паршива та невідповідна термінологія, перегляньте мій репортаж на посилання тут).

Я хотів би прояснити один важливий аспект, перш ніж ми почнемо розбиратися в цій темі.

У соціальних мережах з’явилося кілька дивних заяв про те, що Генеративний ШІ стверджуючи, що ця остання версія ШІ насправді розумний ШІ (ні, вони помиляються!). Ті, хто займається етикою штучного інтелекту та правом штучного інтелекту, особливо стурбовані цією зростаючою тенденцією розкритих претензій. Ви можете ввічливо сказати, що деякі люди перебільшують те, що насправді може зробити сьогоднішній ШІ. Вони припускають, що штучний інтелект має можливості, яких ми ще не змогли досягти. Це прикро. Що ще гірше, вони можуть дозволити собі та іншим потрапити в жахливу ситуацію через припущення, що штучний інтелект буде розумним або схожим на людину, здатним діяти.

Не антропоморфізуйте ШІ.

Це призведе до того, що ви потрапите в липку та сувору пастку очікування від ШІ того, що він не в змозі виконати. Зважаючи на це, останній генеративний штучний інтелект відносно вражає своїми можливостями. Однак майте на увазі, що існують значні обмеження, про які ви повинні постійно пам’ятати, використовуючи будь-який генеративний додаток AI.

Якщо ви зацікавлені в тому, що бурхливий галас про ChatGPT і Generative AI, що швидко розростається, у своїй колонці я створив цілеспрямовану серію, яка може здатися вам інформативною. Ось короткий огляд на випадок, якщо будь-яка з цих тем зацікавить вас:

  • 1) Прогнози щодо майбутніх досягнень генеративного штучного інтелекту. Якщо ви хочете знати, що, ймовірно, буде відбуватися з ШІ протягом 2023 року та далі, включно з майбутніми досягненнями в генеративному ШІ та ChatGPT, вам варто прочитати мій вичерпний список прогнозів на 2023 рік за адресою посилання тут.
  • 2) Генеративний ШІ та поради щодо психічного здоров’я. Я вирішив переглянути, як генеративний штучний інтелект і ChatGPT використовуються для консультацій щодо психічного здоров’я, що є неприємною тенденцією, відповідно до мого цілеспрямованого аналізу на посилання тут.
  • 3) Основи Generative AI і ChatGPT. У цьому матеріалі досліджуються ключові елементи того, як працює генеративний штучний інтелект, і, зокрема, заглиблюється в додаток ChatGPT, включаючи аналіз галасу та фанфар на посилання тут.
  • 4) Напруга між вчителями та учнями через Generative AI та ChatGPT. Ось способи, якими студенти хитро використовуватимуть генеративний ШІ та ChatGPT. Крім того, є кілька способів для вчителів боротися з цією приливною хвилею. Побачити посилання тут.
  • 5) Використання контексту та генеративного ШІ. Я також провів сезонне обговорення контексту, пов’язаного з Сантою, за участю ChatGPT і генеративного штучного інтелекту на посилання тут.
  • 6) Шахраї, які використовують Generative AI. На зловісну ноту деякі шахраї з’ясували, як використовувати генеративний штучний інтелект і ChatGPT, щоб робити неправомірні дії, зокрема генерувати шахрайські електронні листи та навіть створювати програмний код для зловмисного програмного забезпечення. Перегляньте мій аналіз на посилання тут.
  • 7) Помилки новачків при використанні Generative AI. Багато людей як перевищують, так і напрочуд недооцінюють можливості генеративного штучного інтелекту та ChatGPT, тому я звернув увагу на недооцінку, яку зазвичай роблять початківці штучного інтелекту. Дивіться обговорення на посилання тут.
  • 8) Впоратися з генеративними підказками ШІ та галюцинаціями ШІ. Я описую передовий підхід до використання доповнень ШІ для вирішення різноманітних проблем, пов’язаних із спробами ввести відповідні підказки в генеративний ШІ, а також є додаткові додатки ШІ для виявлення так званих галюцинованих виходів ШІ та брехні, як покриті при посилання тут.
  • 9) Розвінчання заяв Bonehead щодо виявлення генеративних есе, створених ШІ. Існує помилкова золота лихоманка додатків штучного інтелекту, які стверджують, що вони здатні визначити, чи було те чи інше есе створено людиною чи створено штучним інтелектом. Загалом, це оманливе, а в деяких випадках безглузде та необґрунтоване твердження, перегляньте моє висвітлення на посилання тут.
  • 10) Рольові ігри за допомогою Generative AI можуть передвіщати недоліки психічного здоров’я. Деякі використовують генеративний штучний інтелект, як-от ChatGPT, для рольових ігор, за допомогою яких програма штучного інтелекту реагує на людину так, ніби вона перебуває у фантастичному світі чи іншому вигаданому місці. Дивіться, це може мати наслідки для психічного здоров’я посилання тут.
  • 11) Викриття ряду виведених помилок і брехні. Різноманітні зібрані списки збираються разом, щоб спробувати продемонструвати природу помилок і брехні, створених ChatGPT. Деякі вважають, що це важливо, а інші кажуть, що вправа марна, дивіться мій аналіз на посилання тут.
  • 12) Школи, які забороняють Generative AI ChatGPT, не мають права. Можливо, ви знаєте, що різні школи, наприклад Департамент освіти Нью-Йорка (Нью-Йорк), оголосили про заборону на використання ChatGPT у своїй мережі та на пов’язаних пристроях. Хоча це може здатися корисним запобіжним заходом, він не зрушить голку і, на жаль, повністю промахнеться з човна, перегляньте мій репортаж на посилання тут.
  • 13) Generative AI ChatGPT буде скрізь завдяки майбутньому API. Існує важливий поворот у використанні ChatGPT, а саме те, що за допомогою порталу API у цій конкретній програмі AI інші програмні програми зможуть викликати та використовувати ChatGPT. Це значно розширить використання генеративного штучного інтелекту та матиме помітні наслідки, дивіться мою розробку на посилання тут.
  • 14) Способи, за допомогою яких ChatGPT може згаснути або розтанути. Кілька потенційно неприємних проблем стоять перед ChatGPT з точки зору підриву величезної похвали, яку він отримав. У цьому аналізі детально розглядаються вісім можливих проблем, які можуть призвести до того, що ChatGPT втратить свою силу і навіть опиниться в собачій будці, див. посилання тут.

Вам може бути цікаво, що ChatGPT базується на версії попереднього додатка AI, відомого як GPT-3. ChatGPT вважається трохи наступним кроком, який називається GPT-3.5. Очікується, що GPT-4 буде випущено навесні 2023 року. Імовірно, GPT-4 стане вражаючим кроком уперед з точки зору можливості створювати, здавалося б, ще більш плавні есе, заглиблюватись і викликати благоговіння. - надихаюче диво щодо композицій, які він може створити.

Ви можете очікувати нового раунду висловленого подиву, коли настане весна та буде випущено останній генеративний ШІ.

Я згадую це, тому що є ще один кут, про який слід пам’ятати, який складається з потенційної ахіллесової п’яти для цих кращих і більших генеративних додатків ШІ. Якщо будь-який постачальник штучного інтелекту надасть генеративну програму штучного інтелекту, яка викидає нечисть, це може зруйнувати надії цих виробників штучного інтелекту. Соціальний вплив може призвести до того, що весь генеративний штучний інтелект може отримати серйозні сині очі. Люди, безсумнівно, дуже засмутяться через погані результати, які вже траплялися багато разів і призводили до бурхливої ​​негативної реакції суспільства на ШІ.

Наразі останнє попередження.

Що б ви не побачили чи прочитали у генеративній відповіді ШІ Здається, передаватися як суто факти (дати, місця, люди тощо), переконайтеся, що залишаєтесь скептичними та будьте готові ще раз перевірити те, що ви бачите.

Так, дати можна вигадувати, місця можна вигадувати, а елементи, які ми зазвичай очікуємо, будуть бездоганними. всі підлягають підозрам. Не вірте тому, що ви читаєте, і будьте скептичними, досліджуючи будь-які генеративні есе чи результати ШІ. Якщо генеративний AI-додаток скаже вам, що Авраам Лінкольн облетів країну на власному приватному літаку, ви, безсумнівно, зрозумієте, що це неприємність. На жаль, деякі люди можуть не усвідомлювати, що реактивних літаків не було в його часи, або вони можуть знати, але не помічати, що в есе робиться це нахабне та обурливо хибне твердження.

Велика доза здорового скептицизму та постійне недовір’я стануть вашим найкращим активом при використанні генеративного ШІ.

Ми готові перейти до наступного етапу цього з’ясування.

Знаючи, що диявол трапиться з цим текстом

Тепер, коли ми сформулювали фундаментальні основи, ми можемо зануритися в дані та інформацію під час використання генеративного ШІ.

По-перше, давайте коротко розглянемо, що відбувається, коли ви вводите текст у запит для ChatGPT. Ми не знаємо напевно, що відбувається всередині ChatGPT, оскільки програма вважається пропрієтарною. Деякі зазначають, що це підриває відчуття прозорості щодо додатка AI. Дещо образливе зауваження полягає в тому, що для компанії, яка називається OpenAI, їхній штучний інтелект фактично закритий для загального доступу та недоступний у вигляді відкритого коду.

Давайте обговоримо токенізацію.

Коли ви вводите звичайний текст у підказку та натискаєте клавішу повернення, імовірно, одразу відбувається перетворення. Текст перетворюється у формат, що складається з токенів. Лексеми — це підчастини слів. Наприклад, слово «гамбургер» зазвичай ділиться на три лексеми, які складаються з частин «шинка», «бур» і «гер». Емпіричне правило полягає в тому, що лексеми, як правило, представляють близько чотирьох символів або вважаються приблизно 75% звичайного англійського слова.

Кожен маркер потім переформулюється як число. Різноманітні внутрішні таблиці вказують, який маркер призначено якому конкретному номеру. Це пояснюється тим, що текст, який ви ввели, тепер є повністю набором чисел. Ці числа використовуються для обчислювального аналізу підказки. Крім того, мережа зіставлення шаблонів, про яку я згадував раніше, також базується на токенізованих значеннях. Зрештою, під час написання чи генерування виведеного есе ці числові маркери спочатку використовуються, а потім перед відображенням маркери перетворюються назад у набори літер і слів.

Подумайте про це на мить.

Коли я кажу людям, що так працює механізм обробки, вони часто приголомшені. Вони припустили, що генеративна програма AI, така як ChatGPT, повинна використовувати повністю інтегративні слова. Ми логічно припускаємо, що слова є наріжним каменем для статистичної ідентифікації зв’язків у письмових розповідях і композиціях. Виявляється, обробка насправді має тенденцію використовувати маркери. Можливо, це додає здивування тому, як обчислювальний процес, здається, виконує досить переконливу роботу, імітуючи людську мову.

Я розповів вам про цей процес через одну поширену помилку, яка, здається, поширюється. Деякі люди, схоже, вважають, що через те, що ваш текст підказки перетворюється на цифрові маркери, ви в цілості та здоров’ї, що у внутрішній частині додатка штучного інтелекту якимось чином більше немає вашого початково введеного тексту. Таким чином, стверджується, що навіть якщо ви ввели конфіденційну інформацію у своєму запиті, ви не хвилюєтесь, оскільки вона, здавалося б, була токенізована.

Це уявлення є оманою. Я щойно зауважив, що числові лексеми можна легко повернути до текстового формату літер і слів. Те саме можна зробити з перетвореним запитом, який було токенізовано. Немає нічого магічного захисту в тому, щоб бути токенованим. З огляду на це, після перетворення в токени, якщо є додатковий процес, який вирішує видаляти токени, переміщувати їх і іншим чином перемішувати або подрібнювати речі, у цьому випадку справді існує ймовірність, що деякі частини оригіналу запит більше не є недоторканими (і припускаючи, що оригінальна копія іншим чином не зберігається або не зберігається десь усередині).

Далі я хотів би поглянути на різні сповіщення та умови ліцензування ChatGPT.

Коли ви входите в ChatGPT, відображається ряд застережень та інформаційних коментарів.

Ось вони:

  • «Іноді може генерувати невірну інформацію».
  • «Іноді може створювати шкідливі інструкції або упереджений вміст».
  • «Навчений відхиляти недоречні запити».
  • «Наша мета — отримати зовнішній відгук, щоб покращити наші системи та зробити їх безпечнішими».
  • «Хоча у нас є запобіжні заходи, система може час від часу генерувати невірну або оманливу інформацію та створювати образливий або упереджений контент. Він не має на меті давати поради».
  • «Розмови можуть бути перевірені нашими інструкторами зі штучного інтелекту, щоб покращити наші системи».
  • «Будь ласка, не діліться конфіденційною інформацією у своїх розмовах».
  • «Ця система оптимізована для діалогу. Повідомте нам, якщо певна відповідь була хорошою чи марною».
  • «Обмежені знання про світ і події після 2021 року».

Два з цих застережень особливо актуальні для цієї дискусії. Подивіться на шостий маркований пункт і сьомий маркований пункт.

Давайте розпакуємо ці два:

«Розмови можуть бути перевірені нашими інструкторами зі штучного інтелекту, щоб покращити наші системи».

У цьому шостому маркованому пункті пояснюється, що текстові розмови під час використання ChatGPT можуть переглядатися ChatGPT через його «інструктори ШІ», що робиться для покращення їхніх систем. Повідомляємо вам, що будь-які введені вами текстові підказки та відповідні виведені есе, усі з яких є частиною «розмови», яку ви ведете з ChatGPT, можуть повністю бачити їхні люди. Запропоноване обґрунтування полягає в тому, що це робиться для покращення програми AI, і нам також сказали, що це тип робочого завдання, яке виконують їхні тренери AI. Можливо, це й так, але результатом є те, що вони повідомили вам, що вони можуть переглянути ваш текст. Крапка, крапка.

Якби вони зробили щось інше з вашим текстом, ви, ймовірно, звернулися б до юридичної консультації щодо того, чи не вийшли вони надзвичайно за запропоновані межі простого перегляду тексту з метою вдосконалення системи (припустімо, що вам вдалося виявити, що вони це зробили, який із сам по собі здається, можливо, малоймовірним). У будь-якому разі, ви можете уявити собі юридичні суперечки, пов’язані з спробою притиснути їх до цього, і їхні спроби знайти вихід із того, щоб бути схопленими за те, що якимось чином порушили межі своєї відмови від відповідальності.

«Будь ласка, не діліться конфіденційною інформацією у своїх розмовах».

Сьомий маркований пункт вказує на те, що ви не маєте права ділитися конфіденційною інформацією під час розмов. Це здається відносно простим. Я припускаю, що ви можете посперечатися, з чого складається визначення конфіденційної інформації. Крім того, маркований пункт не пояснює, чому не слід ділитися конфіденційною інформацією. Якщо вам колись доведеться спробувати в страшному поті пояснити, чому ви безглуздо ввели конфіденційні дані, ви можете спробувати стверджувати, піднявши брови, що попередження було неконкретним, отже, ви не зрозуміли його значення. Затримай подих на цьому.

Загалом, я смію сказати, що більшість людей, яких я бачив, користуючись ChatGPT, як правило, не читають пункти, позначені маркерами, або вони бешкетно пропускають позначені застереження та просто кивають головою, наче це звичайна тарабарщина, яку ви бачите в усіх час. Здається, мало хто сприймає застереження суворо близько до серця. Це провина постачальника за те, що він не зробив запобіжні заходи більш виразними? Або ми повинні припустити, що користувачі повинні нести відповідальність і уважно прочитати, зрозуміти, а потім діяти розсудливо на основі попереджень?

Дехто навіть стверджує, що додаток AI повинен неодноразово попереджати вас. Кожного разу, коли ви вводите підказку, програмне забезпечення має з’являтися попередження та запитувати вас, чи хочете ви натиснути кнопку повернення. Знову і знову. Хоча це може здатися корисним запобіжним заходом, треба визнати, що це сильно дратує користувачів. Це складний компроміс.

Гаразд, це очевидні застереження, представлені для всіх користувачів.

Користувачі, які можуть бути більш допитливими, можуть вибрати деякі з детальних умов ліцензування, які також опубліковані в Інтернеті. Сумніваюся, що багато хто так робить. Я припускаю, що мало хто серйозно дивиться на позначені пункти під час входу в систему, і ще рідше дивляться на деталі ліцензування. Знову ж таки, сьогодні ми всі дещо заніміли до таких речей. Я не виправдовую таку поведінку, лише зазначаю, чому це відбувається.

Я проаналізую кілька уривків із опублікованих умов ліцензування.

По-перше, ось визначення того, що вони вважають «вмістом», пов’язаним із використанням ChatGPT:

  • «Ваш контент. Ви можете надавати вхідні дані для Служб («Вхідні дані») і отримувати результати, створені та повернуті Службами на основі вхідних даних («Вихідні дані»). Вхід і вихід разом називаються «Вмістом». У відносинах між сторонами та в межах, дозволених застосовним законодавством, ви володієте всіма вхідними даними, і за умови дотримання вами цих Умов OpenAI цим передає вам усі свої права, право власності та частку в і на вихідних даних. OpenAI може використовувати Вміст у міру необхідності для надання та підтримки Послуг, дотримання чинного законодавства та забезпечення дотримання нашої політики. Ви несете відповідальність за Вміст, у тому числі за те, щоб він не порушував жодного чинного законодавства чи цих Умов».

Якщо ви уважно вивчите це визначення, то помітите, що OpenAI заявляє, що може використовувати вміст, як вони вважають за потрібне для підтримки своїх служб, зокрема для дотримання відповідних законів і забезпечення виконання своїх політик. Для них це зручний прийом. В наступній одній зі своїх колонок я обговорюватиму іншу, але пов’язану тему, зокрема про права інтелектуальної власності (ІВ), які ви маєте стосовно введених текстових підказок і виведених есе (я вказую на це тут, оскільки визначення Вміст присвячений цій темі).

У наступній частині термінів, позначеній як розділ c, вони згадують цей аспект: «Одна з головних переваг моделей машинного навчання полягає в тому, що їх можна вдосконалювати з часом. Щоб допомогти OpenAI надавати та підтримувати Послуги, ви погоджуєтесь і даєте вказівку, що ми можемо використовувати Вміст для розробки та вдосконалення Послуг». Це схоже на раніше обговорене однорядкове застереження, яке з’являється, коли ви входите в ChatGPT.

Окремий документ, пов’язаний із цим, містить деякі додаткові аспекти щодо цих важливих питань:

  • «У рамках цього постійного вдосконалення, коли ви використовуєте моделі OpenAI через наш API, ми можемо використовувати надані вами дані для вдосконалення наших моделей. Це не тільки допомагає нашим моделям стати точнішими та краще вирішувати вашу конкретну проблему, це також допомагає покращити їхні загальні можливості та безпеку. Ми знаємо, що конфіденційність і безпека даних є критично важливими для наших клієнтів. Ми дуже дбайливо використовуємо відповідні технічні та технологічні засоби контролю для захисту ваших даних. Ми видаляємо будь-яку особисту інформацію з даних, які маємо намір використовувати для покращення продуктивності моделі. Ми також використовуємо лише невелику вибірку даних для кожного клієнта, щоб покращити продуктивність моделі. Наприклад, для одного завдання максимальна кількість запитів API, які ми вибираємо для кожного клієнта, обмежена 200 кожні 6 місяців» (уривок із документа під назвою «Як ваші дані використовуються для покращення продуктивності моделі»).

Зверніть увагу, що положення вказує на те, що положення поширюється на використання API як засіб підключення та використання моделей OpenAI. Дещо туманно щодо того, чи це однаково стосується кінцевих користувачів, які безпосередньо використовують ChatGPT.

Ще в іншому документі, який містить їхній список різноманітних поширених запитань, вони надають низку запитань і відповідей, два з яких здаються особливо доречними для цієї дискусії:

  • «(5) Хто може переглядати мої розмови? У рамках нашої відданості безпечному та відповідальному штучному інтелекту ми переглядаємо розмови, щоб покращити наші системи та переконатися, що контент відповідає нашій політиці та вимогам безпеки».
  • «(8) Чи можете ви видалити певні підказки? Ні, ми не можемо видалити певні підказки з вашої історії. Будь ласка, не діліться конфіденційною інформацією у своїх розмовах».

Існує додатковий документ, який описує їхню політику конфіденційності. У ньому сказано: «Ми збираємо інформацію, яка окремо або в поєднанні з іншою інформацією, якою ми володіємо, може бути використана для ідентифікації вас («Особиста інформація»)», а потім пояснюється, що вони можуть використовувати дані журналу, дані про використання, інформацію про зв’язок, інформацію про пристрій, файли cookie, аналітику та іншу інформацію про вас, яка може збиратися. Обов’язково читайте дрібний шрифт.

Я думаю, що це в основному дає огляд деяких міркувань, які лежать в основі того, як ваші дані можуть використовуватися. Як я зазначав на початку, я не збираюся старанно проходити через усі умови ліцензування.

Сподіваємось, це допоможе вам налаштуватися на ці питання та залишиться у вашій голові.

Висновок

Я вже говорив це раніше і повторю це знову, не вводьте конфіденційні чи приватні дані в ці генеративні програми ШІ.

Розгляньте кілька корисних порад або варіантів цієї мудрої поради:

  • Подумайте, перш ніж використовувати Generative AI
  • Видаліть речі заздалегідь
  • Маска або підробка вашого введення
  • Налаштуйте свій власний екземпляр
  • Інше

Далі я вкажу, з чого складається кожен із них. Налаштування вашого власного екземпляра описано тут раніше. Використання «іншого» в моєму списку пов’язане з можливістю інших способів впоратися із запобіганням включення конфіденційних даних, про що я розповім далі в наступній публікації колонки.

Давайте розглянемо ці:

  • Подумайте, перш ніж використовувати Generative AI. Один підхід передбачає повну відмову від використання генеративного ШІ. Або хоча б двічі подумайте, перш ніж це зробити. Я вважаю, що найбезпечніший шлях полягає в тому, щоб не використовувати ці додатки ШІ. Але це також здається досить серйозним і майже за бортом.
  • Видаліть речі заздалегідь. Інший підхід полягає у видаленні конфіденційної чи приватної інформації з усього, що ви вводите як підказку. У цьому сенсі, якщо ви не введете його, немає шансів, що він потрапить у Борг. Недоліком є ​​те, що, можливо, видалення конфіденційної частини якимось чином зменшує або підриває те, що ви намагаєтеся змусити генеративний ШІ робити за вас.
  • Маскуйте або підробляйте свої дані. Ви можете змінити запропонований текст, змінивши інформацію так, щоб все, що здавалося конфіденційним або приватним, тепер було зображено по-іншому. Наприклад, замість контракту, у якому згадуються Widget Company та Джон Сміт, ви змінюєте текст на посилання на Specious Company та Jane Capone. Питання тут полягає в тому, чи зможете ви виконати достатньо вичерпну роботу, щоб усі конфіденційні та приватні аспекти були повністю змінені або підроблені. Було б легко пропустити деякі помутніння та залишити речі, яких там не повинно бути.

Ось цікавий додатковий поворот, який може змусити вашого чука ще більше заглибитися в цю тему. Якщо ви можете повністю переконатися, що жоден із ваших запитів на введення не містить жодної конфіденційної інформації, чи означає це, що вам не потрібно анітрохи турбуватися про те, що виведені есе також містять будь-яку вашу конфіденційну інформацію?

Це здавалося б аксіоматично вірним. Ні конфіденційного введення, ні конфіденційного виведення.

Ось ваш карколомний поворот.

Генеративний штучний інтелект часто налаштовується на обчислювальну перенавчання на основі текстових підказок, які надаються. Подібним чином генеративний штучний інтелект часто розробляють для обчислювальної перенавчання на основі виведених есе. Усе це перенавчання спрямоване на покращення можливостей генеративного ШІ.

В одній зі своїх колонок я описав наступний експеримент, який я провів. Адвокат намагався знайти новий спосіб вирішення юридичної проблеми. Після вичерпного перегляду юридичної літератури здавалося, що всі кути, які вже були, знайдені. Використовуючи генеративний штучний інтелект, ми створили програму штучного інтелекту для створення нового правового підходу, який, здавалося б, раніше не був ідентифікований. Вважалося, що ніхто інший ще не приземлився на цю правову позицію. Так би мовити, легальний самородок золота. Це може бути стратегічно цінним конкурентоспроможним юридичним джерелом, яке в потрібний час можна використовувати та використовувати.

Чи є цей есе певною формою конфіденційної інформації, яка була створена ШІ для цієї конкретної особи та містить щось особливе та, здавалося б, унікальне?

Ага, це веде нас до іншої спорідненої та взаємопов’язаної теми про власність та права інтелектуальної власності, пов’язані з генеративним ШІ. Залишайтеся з нами, щоб побачити, як це вийде.

Наразі останнє зауваження.

Софокл висловив таку мудрість: «Нічого не роби таємно; бо Час усе бачить і чує, і все розкриває». Я припускаю, що ви можете модернізувати формулювання та стверджувати, що генеративний ШІ та ті, хто розробляє та підтримує ШІ, теж схильні бачити все.

Це скромна символічна порада, яку варто запам’ятати.

Джерело: https://www.forbes.com/sites/lanceeliot/2023/01/27/generative-ai-chatgpt-can-disturbingly-gobble-up-your-private-and-confidential-data-forewarns-ai- ethics-and-ai-law/