Етика штучного інтелекту різко ставить під сумнів клонування людського голосу, наприклад голосу ваших померлих родичів, призначеного для використання в автономних системах ШІ

На жаль, нова, здавалося б, чудова технологія потрапила в хвилю як сама, так і її виробник.

Я маю на увазі появу клонування людського голосу на основі штучного інтелекту як нової технології, яка останнім часом потрапила в заголовки новин. У цьому випадку компанією є Amazon і її постійно прогресуюча Alexa.

Читачі моєї колонки, мабуть, пам’ятають, що я раніше розповідав про непристойне бу-бу, яке сталося, коли було повідомлено, що Алекса заохотила хлопця вставити пенні в електричну розетку (не робіть цього!), перегляньте моє висвітлення на посилання тут. За таких обставин, на щастя, ніхто не постраждав, і наслідком стало те, що система Alexa AI, очевидно, підхопила попередню вірусну тенденцію та без жодної схожості здорового глузду просто повторила божевільну пропозицію, коли її попросили зробити щось цікаве дитина взаємодіє з Alexa. Це підкреслює занепокоєння етики штучного інтелекту щодо того, що ми завалені штучним інтелектом, у якому немає жодної подібності здорового глузду, особливо складна проблема, з якою стикається штучний інтелект, який продовжує заперечувати спроби втілити в штучному інтелекті (для мого аналізу виведення здорового глузду на основі штучного інтелекту). зусилля див посилання тут).

Останній процес включає в себе клонування голосу, також відоме як реплікація голосу. Останні в таких технологіях і штучному інтелекті піднімають актуальні питання етики ШІ та етичного ШІ. Про моє поточне всеосяжне висвітлення етики штучного інтелекту та етики штучного інтелекту див посилання тут та посилання тут, просто назвемо декілька.

Клонування голосу на основі штучного інтелекту є простою концепцією.

Система штучного інтелекту запрограмована на аудіозапис деяких сказаних вами слів. Потім штучний інтелект намагається з’ясувати вашу мову за допомогою обчислень. Грунтуючись на виявлених моделях мовлення, штучний інтелект намагається випромінювати звукову мову, яка звучить так само, як ви. Складна частина полягає в тому, що мова охоплює слова, які ви раніше не надали як зразки аудіо для ШІ. Іншими словами, штучний інтелект має математично оцінити, як ви можете вимовляти слова. Це включає всі характеристики мовлення, такі як тон, підвищення та зниження голосу, темп або швидкість мовлення тощо.

Коли ви чуєте, як людина намагається видати себе за іншу людину, ви зазвичай можете помітити, що ця спроба є імітацією. У короткостроковій перспективі, наприклад, якщо імітатор використовує лише кілька слів, може бути важко зрозуміти, що це голос не оригінального мовця. Крім того, якщо імітатор імітує слова, які насправді сказав оригінальний оратор, є ймовірність того, що він зможе налаштувати свій власний голос на голос іншої особи для цього конкретного висловлювання.

Стислість і слухання тих самих слів може дозволити комусь у значній мірі видавати себе за іншу особу.

Завданням стає приховування слів, які інша особа не говорила, або тих, для яких імітатор ніколи не чув, як людина вимовляє ці конкретні слова. Ви дещо в нерозумінні, намагаючись з’ясувати, як імітована особа сказала б ці слова. Хороша новина полягає в тому, що якщо будь-хто інший, хто слухає імітатора, також не знає, як би оригінальна особа вимовила слова, імітатор може бути відносно далеко від справжнього голосу, але все ще здаватися денді та точним.

Я також хотів би на мить видалити з рівняння манери та фізичні рухи уособлення. Побачивши імітатора, ви можете похитнутися, якщо він зможе зморщити обличчя або помахати руками в спосіб, який також імітує особу, яку видають за себе. Додаткові ознаки тіла та обличчя змусять ваш розум подумати, що голос також мертвий, навіть якщо це може бути не так. Прихильник імітації голосу наполягав би на тому, що лише голос повинен використовуватися як критерій для визначення того, чи вдало голос імітує особу, яку імітують.

Ви, напевно, бачили різноманітні глибокі фейкові відео, які зараз крутяться в соціальних мережах. Хтось вміло переробляє відео, щоб на ньому з’явилося чиєсь обличчя, накладаючи обличчя, яке було іншим на оригінальному записі. Зазвичай це також супроводжується виконанням глибокого фейку на голосі. Ви отримуєте подвійний удар: відео візуально змінюється за допомогою штучного інтелекту deepfake і аудіо за допомогою штучного інтелекту deepfake.

Заради обговорення в цьому документі я зосереджуся лише на аудіо-фасетах deepfake на основі штучного інтелекту, які, як згадувалося раніше, зазвичай називають клонуванням голосу або реплікацією голосу. Дехто зухвало називає це голосом у бідоні.

Я впевнений, що дехто з вас прямо зараз заохочує, що ми вже давно маємо можливість використовувати комп’ютерні програми для клонування голосів. Це нічого нового як такого. Я згоден. У той же час ми повинні визнати, що ці високотехнологічні можливості стають все кращими і кращими. Що ж, я кажу, що все краще і краще, але, можливо, як ви побачите за мить, я мав би сказати, що це стає все більш тривожним і тривожним.

Тримайся цієї думки.

Технологія, безумовно, розвивається для клонування голосу. Наприклад, раніше вважалося, що вам довелося «тренувати» програму реплікації аудіо штучного інтелекту, промовляючи цілу історію зі змішуванням слів. Подібно до знаменитої або сумнозвісної фрази про швидку буру лисицю, яка перестрибнула через ледачого собаку (слова, спрямоване на те, щоб змусити когось накрити всі літери алфавіту), існують спеціально створені короткі історії, які містять суміш слів для цілей змусити вас вимовити достатньо слів і достатньо широкий вибір слів, щоб зробити пошук шаблону штучного інтелекту набагато легшим.

Можливо, вам довелося прочитати кілька сторінок слів, часто включно зі словами, які вам важко вимовити і навіть не впевнені, що вони означають, щоб у достатній мірі забезпечити відповідність шаблону ШІ. Це може зайняти багато хвилин або іноді годин розмови, щоб забезпечити штучний інтелект достатньою кількістю аудіо для пошуку чітких моделей вашого голосу. Якщо ви відмовитеся від цієї навчальної діяльності, є ймовірність того, що реплікацію голосу, що виникне, легко знищать ваші друзі, які добре знають ваш голос.

Гаразд, інтерес розробників штучного інтелекту був зосереджений на тому, як оптимізувати аспекти відтворення звуку. Розробники ШІ насолоджуються викликами. Кажуть, що вони оптимізатори в душі. Поставте їм проблему, і вони прагнуть до оптимізації, незалежно від того, куди це може призвести (я згадую це як передвістя, яке незабаром стане зрозумілішим).

Відповідай мені на це:

  • Яка найменша кількість зразків аудіо, яка знадобиться для максимального клонування голосу людини, і для якого семпл аудіо може бути майже будь-яким випадковим набором слів, але все ще дозволяє клонувати голос для створення майже будь-яких слів, які коли-небудь можуть бути сказані цільовим голосом і звуком, по суті, ідентичним голосу цієї особи в розмові чи інших вибраних контекстних налаштуваннях?

Там багато чого потрібно розпакувати.

Майте на увазі, що вам потрібен мінімальний зразок аудіосигналу, який максимально клонує голос, щоб результуючі висловлювання штучного інтелекту в цьому тепер автоматично відтвореному голосі здавалися абсолютно невідрізними від реальної людини. Це складніше, ніж ви думаєте.

Це майже як те ігрове шоу, де вам потрібно спробувати назвати пісню на основі найменшої кількості почутих нот. Чим менше нот зіграно, тим важче вгадати, яка це пісня. Якщо ваше припущення невірне, ви втрачаєте очки або програєте гру. Починається боротьба, чи варто вам використовувати лише одну ноту, найменшу можливу підказку, але тоді ваша ймовірність вгадати пісню, ймовірно, значно зменшується. Чим більше нот ви почуєте, тим вища ймовірність вгадати правильну пісню, але ви дозволяєте іншим учасникам також мати підвищені шанси вгадати.

Пам’ятайте, що ми також маємо справу з поняттям прописаних слів проти будь-яких слів у випадку клонування голосу. Якщо людина говорить слова «Ти не впораєшся з правдою», і ми хочемо, щоб штучний інтелект імітував цю людину або видавав її за неї, штучний інтелект за допомогою обчислень, ймовірно, легко вловить шаблон. З іншого боку, припустімо, що ми маємо лише ці слова, сказані цією людиною: «Це все, що ви маєте мене запитати», і ми хочемо використати ці слова, щоб ШІ сказав: «Ти не впораєшся з правдою». Я думаю, ви бачите складність навчання на одному наборі слів і необхідності екстраполяції на зовсім інший набір слів.

Інший важкий елемент складається з контексту вимовлених слів. Припустімо, ми змусимо вас записати речення, коли ви спокійні та невимушені. ШІ моделює ці слова. Це також може вплинути на спокій вашого голосу. Уявіть, що тоді ми хочемо, щоб ШІ вдавав, що це ви, коли ви кричите божевільні та злі, як шершні. Змусити штучний інтелект спотворити оригінальний шаблон, перетворивши його на точно розлючену версію вашого голосу, може бути страшно.

Які мінімуми ми маємо на увазі?

Мета зараз — подолати хвилинну позначку.

Візьміть записаний голос, для якого у вас є менше ніж хвилина аудіо, і змусьте штучний інтелект виконати дивовижне клонування голосу лише з цього мізерного зразка. Я хочу пояснити, що майже будь-хто може створити штучний інтелект, який зможе це зробити в цілому менш ніж за одну хвилину, хоча отриманий голосовий клон слабкий і легко визначається як неповний. Знову ж таки, я чітко і рішуче стверджую, що час вибірки є мінімальним та при цьому клонування голосу на максимумі. Дурник може досягти мінімальної вибірки, якщо їм також дозволено бути дуже субмаксимальними при клонуванні голосу.

Це веселе та захоплююче технологічне завдання. Можливо, ви задаєтеся питанням про цінність або переваги цього. Якої мети ми прагнемо? Яких переваг для людства ми можемо очікувати, маючи можливість так ефективно та результативно виконувати реплікацію голосу на основі ШІ?

Я хочу, щоб ви подумали над цим м’ясним питанням.

Неправильна відповідь може ненавмисно потрапити в купу каші.

Ось щось, що здається оптимістичним і цілком позитивним.

Припустімо, що ми могли б мати старі записи відомих людей, таких як Авраам Лінкольн, і змогли використати ці запилені фрагменти аудіо для створення клону голосу на основі ШІ. Потім ми могли почути, як Лінкольн вимовляв Геттісбурзьку промову, наче ми були там у той день, коли він виголосив пам’ятну промову з чотирьох балів і сім років тому. До речі, на жаль, у нас немає аудіозаписів голосу Лінкольна (технологія ще не існувала), але у нас є записи голосу президента Бенджаміна Гаррісона (першого з президентів США, який мав запис голосу ) та інші президенти після цього.

Я вважаю, що ми всі погодимося, що це конкретне використання клонування голосу на основі штучного інтелекту є цілком нормальним. Насправді ми, ймовірно, хотіли б цього більше, ніж якби актор сьогодні намагався вдавати, що він говорить як Лінкольн. Імовірно, актор вигадує те, що, на їхню думку, звучить справжній голос Лінкольна. Це була б вигадка, можливо, далека від того, яким був голос Лінкольна. Натомість, використовуючи добре кваліфіковану систему клонування голосу штучного інтелекту, було б мало аргументів щодо того, як насправді звучав голос Лінкольна. Штучний інтелект був би фактично правильним, принаймні в тій мірі, наскільки він хороший у відтворенні цільового голосу.

У категорії доброти щодо клонування голосу штучного інтелекту ми можемо перемогти з таким варіантом використання.

Не хочеться бути похмурим, але навіть у цьому, очевидно, перевернутому використанні є недолік.

Хтось використовує систему клонування голосу ШІ, щоб визначити голос Теодора Рузвельта («Тедді»), нашого дорогоцінного 26th Президент Сполучених Штатів, натураліст, природоохоронець, державний діяч, письменник, історик і майже повсюдно названий шанованою людиною. Промови, які він виголошував і для яких ми не маємо жодної історично збереженої аудіоверсії, тепер можна було «проговорити» так, ніби він особисто виступає сьогодні. Похвальний поштовх для вивчення історії.

Давайте перетворимо це на потворне, просто щоб виявити його недоліки.

Ми використовуємо голосовий клон Тедді на основі ШІ, щоб прочитати промову злого диктатора. ШІ не дбає про те, що він говорить, оскільки в ШІ немає жодної видимості розуму. Слова - це просто слова, а точніше - просто звуки.

Ви можете бути приголомшені тим, що хтось зробить щось такого підступного характеру. Навіщо, в біса, клонований голос відомого і шанованого Теодора Рузвельта, заснований на штучному інтелекті, використовувався для виголошення промови, якої Тедді не тільки спочатку не робив, але, крім того, він говорить на тему, яка зображує деяку злісність мерзенного диктатор?

Обурливо, ви можете вигукнути.

Легко зробити, приходить відповідь.

По суті, одне дуже важливе занепокоєння щодо реплікації голосу на основі штучного інтелекту полягає в тому, що ми раптово опинимося затоплені фальшивими або ми будемо говорити глибокі фальшиві промови та висловлювання, які не мають нічого спільного з будь-якими історичними фактами чи достовірністю. Якщо достатньо їх буде зроблено та оприлюднено, ми можемо заплутатися щодо того, що є фактом, а що є вигадкою.

Ви можете побачити, як це може виникнути. Використовуючи клон голосу на основі штучного інтелекту, хтось робить аудіозапис промови Вудро Вільсона, яку він насправді ніколи не виголошував. Це розміщено в Інтернеті. Хтось інший чує запис і вірить, що це справжня річ. Вони публікують це в іншому місці, згадуючи, що знайшли цей чудовий історичний запис Вудро Вільсона. Незабаром учні на уроках історії використовують аудіо замість читання письмової версії виступу.

Ніхто не дізнається, чи була ця промова Вудро Вільсоном чи ні. Можливо, це було, можливо, ні, і всі вважають, що це не має особливого значення (ну, ті, хто не орієнтується на історичну точність і факти). Звичайно, якщо промова є підлою, це створює неправильне враження або дезінформацію про цю історичну постать. Історія і фантастика злиті в одне ціле.

Сподіваюся, ви переконалися, що це недолік, пов’язаний із клонуванням голосу на основі ШІ.

Знову ж таки, ми вже можемо робити такі речі, роблячи це без новішого та покращеного відтворення голосу на основі штучного інтелекту, але робити це стане легше, і в результаті буде надзвичайно важко відрізнити справжній звук від підробленого. У наш час, використовуючи звичайні програми для створення аудіо, ви зазвичай можете прослухати вихід і часто легко переконатися, що аудіо підроблено. Завдяки прогресу ШІ ви досить скоро перестанете вірити своїм вухам, так би мовити.

Яким би поганим не було клонування голосу історичних діячів, нам потрібно подумати про, можливо, особливо кричущі випадки використання живих людей сьогодення.

По-перше, чи чули ви коли-небудь про досить популярне шахрайство, у якому хтось видає себе за боса чи еквівалент цього? Кілька років тому була тривожна мода дзвонити в ресторан чи магазин і прикидатися начальником закладу. Фальшивка включала б вказівку співробітнику робити смішні речі, які вони часто робили б сумлінно, помилково переконавшись, що вони розмовляють зі своїм босом.

Я не хочу заплутати в таких жахливих протиправних діях, але ще один доречний полягає в тому, щоб подзвонити людині, яка може бути погано чує, і прикинутися їхнім онуком чи онукою. Імітатор намагається переконати дідуся та бабусю надати гроші, щоб допомогти або, можливо, якимось чином врятувати їх. Судячи з підробленого голосу, бабусю та дідуся обманюють. Підлий. Ганебно. Сумно.

Ми збираємося вступити в еру, коли клонування голосу на основі штучного інтелекту дозволить на стероїдах, якщо ви були, появу шахрайства та шахрайства, пов’язаного з голосом. ШІ зробить таку чудову роботу з відтворення голосу, що кожен, хто почує голос, присягнеться під клятвою, що говорила саме ця людина.

Як далеко це може зайти?

Деякі стурбовані тим, що випуск, скажімо, атомної зброї та військові атаки можуть статися тим, хто використовує голосовий клон на основі штучного інтелекту, який змушує інших повірити, що військовий офіцер вищого рівня віддає пряму команду. Те саме можна сказати про будь-кого на будь-якому видатному становищі. Використовуйте надзвичайно точний голосовий клон штучного інтелекту, щоб змусити банківського керівника вивільнити мільйони доларів коштів, роблячи це на основі того, що його обдурили, повіривши, що він розмовляє з клієнтом банку.

У минулі роки робити це за допомогою ШІ не обов’язково було б переконливим. У той момент, коли людина на іншому кінці телефону починає задавати запитання, штучному інтелекту потрібно буде відійти від підготовленого сценарію. У цей момент клонування голосу погіршувалося, іноді радикально. Єдиним засобом продовжити шахрайство було змусити розмову повернутися до сценарію.

З типом штучного інтелекту, який ми маємо сьогодні, включно з досягненнями в обробці природної мови (NLP), ви можете відмовитися від сценарію та потенційно зробити так, щоб голосовий клон штучного інтелекту говорив природним способом розмови (це не завжди так, і все ще є способи підвести ШІ).

Перш ніж перейти до розмови про дикі й шерстисті міркування, що лежать в основі клонування голосу на основі штучного інтелекту, давайте розглянемо деякі додаткові основи щодо надзвичайно важливих тем. Нам потрібно ненадовго зануритися в етику штучного інтелекту, особливо в появу машинного навчання (ML) і глибокого навчання (DL).

Можливо, ви смутно усвідомлюєте, що сьогодні одним із найгучніших голосів у сфері штучного інтелекту та навіть поза його межами є вимоги до більшої схожості етичного AI. Давайте подивимося, що означає посилання на етику штучного інтелекту та етичний AI. Крім того, ми розглянемо, що я маю на увазі, коли говорю про машинне навчання та глибоке навчання.

Один окремий сегмент або частина етики AI, який привертає велику увагу ЗМІ, складається з AI, який демонструє несприятливі упередження та несправедливість. Ви, напевно, знаєте, що коли почалася остання ера штучного інтелекту, виник величезний сплеск ентузіазму щодо того, що дехто зараз називає ШІ для добра. На жаль, після цього хвилювання ми стали свідками ШІ для поганого. Наприклад, було виявлено, що різні системи розпізнавання обличчя на основі штучного інтелекту містять расові та гендерні упередження, які я обговорював на посилання тут.

Зусилля протистояти ШІ для поганого активно ведуться. До того ж крикливий правової прагнення приборкати протиправні дії, є також істотний поштовх до прийняття Етики ШІ, щоб виправити підлість ШІ. Ідея полягає в тому, що ми повинні прийняти та схвалити ключові етичні принципи ШІ для розробки та впровадження ШІ, роблячи це, щоб підірвати ШІ для поганого і водночас проголошуючи та пропагуючи переваги ШІ для добра.

Що стосується пов’язаної думки, то я прихильник спроб використання штучного інтелекту як частини вирішення проблем, пов’язаних із штучним інтелектом, боротися з вогнем у такий спосіб мислення. Наприклад, ми можемо вбудувати етичні компоненти штучного інтелекту в систему штучного інтелекту, яка буде відстежувати, як решта штучного інтелекту робить речі, і, таким чином, потенційно ловити в режимі реального часу будь-які дискримінаційні зусилля, див. моє обговорення на посилання тут. Ми також могли б мати окрему систему штучного інтелекту, яка діятиме як тип монітора етики AI. Система ШІ служить наглядачем, щоб відстежувати та виявляти, коли інший ШІ потрапляє в неетичну прірву (див. мій аналіз таких можливостей на посилання тут).

Через деякий час я поділюся з вами деякими загальними принципами, що лежать в основі етики ШІ. Подібних списків тут і там плаває багато. Можна сказати, що поки що не існує єдиного списку універсальної привабливості та збігу. Ось така сумна новина. Хороша новина полягає в тому, що принаймні є легкодоступні списки етики AI, і вони, як правило, дуже схожі. Все це говорить про те, що завдяки певній формі аргументованої конвергенції ми знаходимо шлях до загальної спільності того, з чого складається етика ШІ.

По-перше, давайте коротко розглянемо деякі загальні правила етичного штучного інтелекту, щоб проілюструвати, що має бути життєво важливим для тих, хто створює, використовує або використовує AI.

Наприклад, як стверджує Ватикан в Рим закликає до етики ШІ і як я детально розглянув на посилання тут, вони визначили шість основних принципів етики ШІ:

  • Прозорість: В принципі, системи штучного інтелекту повинні бути поясненими
  • Включення: Необхідно враховувати потреби всіх людей, щоб кожен міг отримати вигоду, а всім людям могли бути запропоновані найкращі умови для самовираження та розвитку.
  • Відповідальність: Ті, хто розробляє та впроваджує використання ШІ, повинні діяти відповідально та прозоро
  • Неупередженість: Не творіть і не дійте відповідно до упередженості, захищаючи таким чином справедливість і людську гідність
  • Надійність: Системи AI повинні працювати надійно
  • Безпека та конфіденційність: Системи AI повинні працювати безпечно та поважати конфіденційність користувачів.

Про це йдеться в заяві міністерства оборони США (DoD). Етичні принципи використання штучного інтелекту і як я детально розглянув на посилання тут, це їх шість основних принципів етики ШІ:

  • Відповідальний: Персонал Міністерства оборони буде проявляти належний рівень розсудливості та уважності, залишаючись відповідальним за розробку, розгортання та використання можливостей штучного інтелекту.
  • Справедливий: Департамент вживатиме свідомих заходів, щоб мінімізувати ненавмисне упередження в можливостях ШІ.
  • Відстежується: Можливості Департаменту в галузі штучного інтелекту будуть розроблені та розгорнуті таким чином, щоб відповідний персонал володів належним розумінням технології, процесів розробки та операційних методів, застосовних до можливостей штучного інтелекту, включаючи прозорі та піддані аудиту методології, джерела даних, а також процедуру та документацію проектування.
  • надійність: Можливості Департаменту штучного інтелекту будуть мати чітке, чітко визначене використання, а безпека, безпека та ефективність таких можливостей будуть підлягати тестуванню та гарантії в межах цих визначених видів використання протягом усього їхнього життєвого циклу.
  • Керований: Департамент буде розробляти та розробляти можливості штучного інтелекту для виконання своїх призначених функцій, маючи при цьому здатність виявляти й уникати непередбачених наслідків, а також здатність відключати або деактивувати розгорнуті системи, які демонструють ненавмисне поведінку.

Я також обговорював різноманітні колективні аналізи принципів етики ШІ, у тому числі охоплюючи набір, розроблений дослідниками, який розглянув і стиснув суть численних національних і міжнародних принципів етики ШІ в статті під назвою «Глобальний ландшафт етичних принципів ШІ» (опублікований в природа), і що моє висвітлення досліджується на посилання тут, що призвело до цього списку ключових каменів:

  • прозорість
  • Справедливість і справедливість
  • Незлочинність
  • Відповідальність
  • Конфіденційність
  • Вигода
  • Свобода і автономія
  • Довіряйте
  • Sustainability
  • Гідність
  • Солідарність

Як ви можете прямо здогадатися, спробувати визначити особливості, що лежать в основі цих принципів, може бути надзвичайно важко зробити. Більше того, спроба перетворити ці загальні принципи на щось цілком відчутне і досить детальне, щоб використовувати його при створенні систем штучного інтелекту, також є міцним горіхом. Загалом легко пояснити, що таке заповіді етики штучного інтелекту та як їх слід дотримуватись, в той час як набагато складніша ситуація в кодуванні AI — це справжня гумка, яка зустрічає дорогу.

Принципи етики штучного інтелекту мають використовуватися розробниками штучного інтелекту, а також тими, хто керує розробкою штучного інтелекту, і навіть тими, хто в кінцевому підсумку займається технічним обслуговуванням систем ШІ. Усі зацікавлені сторони протягом усього життєвого циклу розробки та використання ШІ розглядаються в рамках дотримання встановлених норм етичного ШІ. Це важливий момент, оскільки звичайне припущення полягає в тому, що «лише кодери» або ті, хто програмує ШІ, підлягають дотриманню концепцій етики ШІ. Як було сказано раніше, для розробки та застосування штучного інтелекту потрібне село, і для цього все село має бути обізнаним і дотримуватися правил етики ШІ.

Давайте також переконаємося, що ми на одній сторінці щодо природи сьогоднішнього ШІ.

Сьогодні немає жодного штучного інтелекту, який був би розумним. У нас цього немає. Ми не знаємо, чи буде можливий розумний ШІ. Ніхто не може влучно передбачити, чи досягнемо ми розумного ШІ, ані чи стане розумний ШІ якимось дивом спонтанно виникнути у формі обчислювальної когнітивної наднової (як правило, її називають сингулярністю, див. моє висвітлення на посилання тут).

Тип штучного інтелекту, на якому я зосереджуюсь, складається з нерозумного ШІ, який ми маємо сьогодні. Якби ми хотіли дико спекулювати про розумний ШІ, ця дискусія може піти в радикально іншому напрямку. Розумний штучний інтелект мав би відповідати людській якості. Вам слід враховувати, що розумний ШІ є когнітивним еквівалентом людини. Більше того, оскільки деякі припускають, що у нас може бути надрозумний штучний інтелект, цілком можливо, що такий штучний інтелект може стати розумнішим за людей.

Давайте зробимо все більш приземленим і розглянемо сьогоднішній обчислювальний нерозумний ШІ.

Зрозумійте, що сучасний AI не здатний «мислити» будь-яким чином нарівні з людським мисленням. Коли ви взаємодієте з Alexa або Siri, розмовні здібності можуть здатися схожими на людські здібності, але реальність така, що вони обчислювальні й позбавлені людського пізнання. Остання ера ШІ широко використовує машинне навчання (ML) і глибоке навчання (DL), які використовують узгодження обчислювальних шаблонів. Це призвело до систем штучного інтелекту, які мають вигляд людських схильностей. Тим часом, сьогодні немає жодного штучного інтелекту, який мав би вигляд здорового глузду і не мав би жодного когнітивного дива міцного людського мислення.

ML/DL є формою узгодження обчислювальних шаблонів. Звичайний підхід полягає в тому, що ви збираєте дані про завдання прийняття рішення. Ви подаєте дані в моделі комп’ютерів ML/DL. Ці моделі прагнуть знайти математичні закономірності. Після виявлення таких закономірностей, якщо вони знайдені, система ШІ використовуватиме ці шаблони під час зустрічі з новими даними. Після представлення нових даних шаблони, засновані на «старих» або історичних даних, застосовуються для прийняття поточного рішення.

Я думаю, ви можете здогадатися, куди це веде. Якщо люди, які приймали рішення за зразком, включали упередження, ймовірно, дані відображають це тонким, але значущим чином. Машинне навчання або глибоке навчання обчислювальний шаблон зіставлення буде просто намагатися математично імітувати дані відповідно. Немає жодної видимості здорового глузду чи інших розумних аспектів моделювання, створеного AI, як такого.

Крім того, розробники ШІ також можуть не усвідомлювати, що відбувається. Таємна математика в ML/DL може ускладнити виявлення прихованих упереджень. Ви по праву сподіваєтесь і очікуєте, що розробники AI перевірять потенційно приховані упередження, хоча це складніше, ніж може здатися. Існує велика ймовірність того, що навіть при відносно обширному тестуванні в моделях зіставлення шаблонів ML/DL все ще будуть упередження.

Ви могли б трохи використати відоме чи сумнозвісне прислів’я «сміття в сміття – виходить». Справа в тому, що це більше схоже на упередження, які підступно вливаються, коли упередження занурюються в ШІ. Алгоритм прийняття рішень (ADM) ШІ аксіоматично стає обтяженим несправедливістю.

Не добре.

Давайте повернемося до нашої уваги до клонування голосу на основі ШІ.

На нещодавній конференції компанія Amazon мала на меті продемонструвати бажані переваги клонування голосу на основі штучного інтелекту та висвітлити останній передовий штучний інтелект, який використовується в Alexa для розширення її можливостей. Згідно з повідомленнями новин, підготовлений приклад, який мав бути зворушливим і оптимістичним, полягав у тому, щоб дитина попросила Алексу, щоб її бабуся дочитала їй історію про Чарівник країни Оз. Глядачам повідомили, що бабуся померла, і це був спосіб для дитини фактично відновити зв’язок зі своїм улюбленим дідусем і бабусею. Усе це, мабуть, було частиною відео, зібраного Amazon, щоб допомогти продемонструвати останні досягнення команди розробників Alexa у клонуванні голосу штучного інтелекту (що охоплює функції, які ще офіційно не запущені для загального використання).

Однією з реакцій на цей приклад є те, що ми можемо бути дуже зворушені тим, що дитина знову може почути голос своєї бабусі. Ймовірно, ми повинні припустити, що бабуся ще не записала повне читання історії, отже, клонування штучного інтелекту виконувало роботу, створюючи враження, ніби бабуся зараз читає повністю.

Чудовий і чудовий спосіб відновити зв’язок із близькими людьми, яких уже немає з нами.

Не всі репортери та аналітики (плюс Twitter) були настільки схильні до сприятливої ​​інтерпретації цього прогресу. Деякі назвали це відверто моторошним. Кажуть, що спроба відтворити голос померлої близької людини була дивною та дещо химерною справою.

Багато питань, наприклад:

  • Чи розгубиться дитина і повірить, що померла близька людина ще жива?
  • Чи можна зараз дитину втягнути в якусь неприємну витівку чи шахрайство, хибно вважаючи, що бабуся все ще з нами?
  • Чи може дитина страждати, почувши про померлого коханого, і впадати в розчарування через те, що знову сумує за дідусем і бабусею, ніби розкриваючи вже загоєні душевні рани?
  • Чи подумає дитина, що померлий може говорити з іншого боку, а саме, що цей містичний голос, який видається саме його бабусею, говорить до нього з могили?
  • Чи можна уявити, що дитина подумає, що ШІ якимось чином втілив його бабусю, антропоморфізувавши ШІ так, що дитина виросте, вірячи, що ШІ може повністю повторити людей?
  • Припустімо, що дитина настільки закохується в голос бабусі, відтворений штучним інтелектом, що підліток стає одержимим і використовує голос для будь-якого прослуховування аудіо?
  • Чи може постачальник, який копіює голос, вибрати використання цього голосу для інших, які використовують ту саму загальну систему, роблячи це без явного дозволу від сім’ї та таким чином «отримувати прибуток» від створеного голосу?
  • І так далі.

Важливо усвідомлювати, що ви можете викликати стільки негативу, скільки позитиву, або, скажімо так, стільки позитиву, скільки й негативу. В основі цих досягнень ШІ є компроміси. Дивитися лише на одну сторону медалі, можливо, короткозоро.

Головне — переконатися, що ми розглядаємо ці проблеми з усіх сторін. Не затуманюйтеся у своїх думках. Може бути легко досліджувати лише позитиви. Може бути легко досліджувати лише негативи. Нам потрібно вивчити обидва й з’ясувати, що можна зробити, щоб, як ми сподіваємось, використати позитиви та спробувати зменшити, усунути або принаймні пом’якшити негативи.

Певною мірою саме тому етика ШІ та етичний ШІ є такою важливою темою. Правила етики ШІ змушують нас залишатися пильними. Технологи штучного інтелекту іноді можуть бути стурбовані технологіями, особливо оптимізацією високих технологій. Вони не обов’язково враховують більші суспільні наслідки. Наявність етичного мислення ШІ, яке є невід’ємною частиною розробки та впровадження ШІ, є життєво важливим для створення належного ШІ.

Крім використання етики штучного інтелекту, виникає відповідне питання про те, чи повинні ми мати закони, які б регулювали різні види використання штучного інтелекту, наприклад функції клонування голосу на основі штучного інтелекту. На федеральному, штатному та місцевому рівнях приймаються нові закони, які стосуються діапазону та характеру розробки ШІ. Зусилля щодо розробки та прийняття таких законів є поступовими. Етика штучного інтелекту служить принаймні тимчасовим засобом.

З огляду на це, деякі стверджують, що нам не потрібні нові закони, які стосуються ШІ, і що наших існуючих законів достатньо. Насправді вони попереджають, що якщо ми все-таки запровадимо деякі з цих законів щодо ШІ, ми вб’ємо золотого гусака, пригнічуючи досягнення ШІ, які дають величезні переваги для суспільства. Дивіться, наприклад, моє висвітлення на посилання тут та посилання тут.

На цьому етапі цієї вагомої дискусії, я б повірив, ви прагнете отримати деякі ілюстративні приклади, які могли б продемонструвати цю тему. Є особливий і напевно популярний набір прикладів, які мені близькі. Розумієте, як експерта з ШІ, включаючи етичні та юридичні наслідки, мене часто просять визначити реалістичні приклади, які демонструють дилеми етики ШІ, щоб можна було легше зрозуміти теоретичний характер теми. Однією з найяскравіших областей, яка яскраво представляє цю етичну проблему ШІ, є поява справжніх самокерованих автомобілів на основі AI. Це буде зручним прикладом використання або прикладом для широкого обговорення цієї теми.

Тоді ось важливе питання, яке варто обдумати: Чи просвітлює поява справжніх безпілотних автомобілів на основі ШІ щось про клонування голосу на основі ШІ, і якщо так, то що це демонструє?

Дозвольте мені трохи розкрити питання.

По-перше, зауважте, що в справжньому самокерованому автомобілі немає водія-людини. Майте на увазі, що справжні самокеровані автомобілі керуються за допомогою системи водіння AI. Немає потреби в водієві-людині за кермом, а також не передбачено, щоб людина могла керувати транспортним засобом. Для мого широкого й постійного висвітлення автономних транспортних засобів (AV) і особливо самокерованих автомобілів див. посилання тут.

Я хотів би додатково пояснити, що мається на увазі, коли я маю на увазі справжні самокеровані автомобілі.

Розуміння рівнів самокерованих автомобілів

Як уточнення, справжні самокеровані автомобілі - це ті, де ШІ керує автомобілем повністю самостійно, і під час водіння немає жодної допомоги з боку людини.

Ці транспортні засоби без водія вважаються рівнями 4 і 5 (див. моє пояснення на Це посилання тут), в той час як автомобіль, який вимагає, щоб водій-людина спільно керував зусиллям, зазвичай розглядається на рівні 2 або рівня 3. Автомобілі, які спільно виконують завдання водіння, описуються як напівавтономні та зазвичай містять різноманітні автоматизовані надбудови, які називаються ADAS (Advanced Driver-Assist Systems).

На 5-му рівні ще немає справжнього самокерованого автомобіля, і ми ще навіть не знаємо, чи вдасться цього досягти, ані скільки часу знадобиться, щоб дістатися до нього.

Тим часом зусилля рівня 4 поступово намагаються отримати деяку тягу, проходячи дуже вузькі та вибіркові випробування на дорозі, хоча існують суперечки щодо того, чи слід дозволити це тестування як таке (всі ми є піддослідними свинками на життя чи смерть у експерименті дехто стверджує, що відбувається на наших автомагістралях і проїжджих шляхах, див Це посилання тут).

Оскільки для напівавтономних автомобілів потрібен водій людини, прийняття цих типів автомобілів не буде помітно відрізнятися від керування звичайними транспортними засобами, тому на цій темі не так вже й багато нового (хоча, як ви побачите через мить наступні пункти, як правило, застосовуються).

Для напівавтономних автомобілів важливо, щоб громадськість попередила про тривожний аспект, що виникає останнім часом, а саме: незважаючи на тих водіїв, які постійно публікують відеозаписи, засинаючи за кермом автомобіля рівня 2 або 3 рівня , ми всі повинні уникати того, щоб не вводити в оману вірити, що водій може відняти їхню увагу від завдання водіння під час керування напівавтономним автомобілем.

Ви несете відповідальну сторону за рушійні дії транспортного засобу, незалежно від того, наскільки автоматизація може бути перекинута на рівень 2 або 3 рівень.

Автомобілі та клонування голосу на основі ШІ

Для справжніх автомобілів рівня 4 та рівня 5, у водінні завдання не буде брати участь людина-водій.

Усі пасажири будуть пасажирами.

AI робить водіння.

Один аспект, який слід негайно обговорити, передбачає той факт, що ШІ, який бере участь у сучасних системах керування ШІ, не є розумним. Іншими словами, ШІ в цілому є колективом комп’ютерного програмування та алгоритмів, і, безперечно, він не в змозі міркувати так само, як це може людина.

Чому цей додатковий акцент на тому, що ШІ не є розумним?

Оскільки я хочу підкреслити, що, обговорюючи роль системи керування ШІ, я не приписую людські якості ШІ. Будь ласка, майте на увазі, що нині існує тривала та небезпечна тенденція до антропоморфізації ШІ. По суті, люди призначають сьогоднішній ШІ схожий на людину розум, незважаючи на незаперечний та беззаперечний факт, що такого ШІ ще не існує.

З цим роз’ясненням ви можете передбачити, що система водіння ШІ не буде якось “знати” про аспекти водіння. Водіння та все, що воно спричиняє, повинні бути запрограмовані як частина апаратного та програмного забезпечення самокерованого автомобіля.

Давайте зануримось у безліч аспектів, які виникають на цю тему.

По-перше, важливо усвідомити, що не всі самокеровані автомобілі з штучним інтелектом однакові. Кожен виробник автомобілів і технологічна фірма, що займаються самокеруванням, використовують свій підхід до розробки самокерованих автомобілів. Таким чином, важко робити розгорнуті заяви про те, що будуть робити, а що не робитимуть системи керування ШІ.

Крім того, щоразу, коли заявляють, що система керування штучним інтелектом не робить якоїсь конкретної речі, це згодом може бути обігнате розробниками, які насправді програмують комп’ютер на таку саму річ. Поступово системи керування ШІ поступово вдосконалюються та розширюються. Існуюче сьогодні обмеження може більше не існувати в майбутній ітерації або версії системи.

Я сподіваюся, що це містить достатню кількість застережень, щоб підтвердити те, що я збираюся розповісти.

Давайте зобразимо сценарій, який може використовувати клонування голосу на основі ШІ.

Батько з дитиною сідають у безпілотний автомобіль на базі ШІ. Вони йдуть до місцевого продуктового магазину. Очікується, що це буде відносно спокійна поїздка. Лише щотижнева поїздка до магазину, хоча водій є системою керування ШІ, і батькам не потрібно нічого керувати.

Для батьків це велике благо. Замість того, щоб зосереджуватися на керуванні та керуванні автомобілем, батьки можуть присвятити свою увагу своїй дитині. Вони можуть грати разом в автономному транспортному засобі та проводити час цінного характеру. У той час як зазвичай батьки відволікаються на керування автомобілем і, ймовірно, хвилюються та напружуються, їздячи жвавими вулицями та маючи справу з іншими божевільними водіями неподалік, тут батьки просто не помічають цих проблем і просто радісно спілкуються зі своєю дорогоцінною дитиною.

Батько розмовляє з системою водіння ШІ і каже ШІ відвезти їх до продуктового магазину. У типовому сценарії штучний інтелект відповів би нейтральним звуковим висловлюванням, яке ви можете почути через сучасні Alexa або Siri. ШІ може відповісти, заявивши, що продуктовий магазин знаходиться за 15 хвилин їзди. Крім того, штучний інтелект може сказати, що безпілотний автомобіль висадить їх у передній частині магазину.

Це може бути єдина голосова діяльність ШІ в такому сценарії. Можливо, коли безпілотний автомобіль наблизиться до продуктового магазину, штучний інтелект може сказати щось про наближення пункту призначення. Також може бути голосове нагадування взяти свої речі з собою, коли ви виходите з автономного автомобіля.

Я пояснив, що деякі системи керування ШІ будуть, так би мовити, балакучими котами. Вони будуть запрограмовані на більш вільну та постійну взаємодію з людьми-гонщиками. Коли ви сідаєте в автомобіль, яким керує людина, інколи хочеться, щоб водій був балакучим. Крім привітань, ви можете розповісти вам про місцеві погодні умови або, можливо, вказати інші місця, які варто побачити в цьому районі. Не всі захочуть балакучого кота, тому ШІ слід розробити так, щоб він брав участь у діалогах лише тоді, коли цього вимагає людина, див. моє висвітлення на посилання тут.

Тепер, коли я все склав, давайте змінимо речі невеликим, але значним чином.

Уявіть, що система водіння AI має функцію клонування голосу на основі AI. Давайте також припустимо, що батько раніше запустив клонування голосу ШІ, надавши аудіофрагмент бабусі дитини. Сюрприз, думає батько, я зроблю так, щоб система водіння ШІ говорила так, ніби це померла бабуся дитини.

Під час поїздки до продуктового магазину система водіння штучного інтелекту взаємодіє з батьком і дитиною, використовуючи весь час виключно клонований голос бабусі.

Що ви думаєте про це?

Моторошний чи запам'ятовується з теплотою?

Я підніму речі на сходинку. Готуйся. Пристебніть ремінь безпеки.

Деякі вірять, як і я, що врешті-решт ми дозволимо дітям самостійно їздити в безпілотних автомобілях на основі штучного інтелекту. Перегляньте мій аналіз на посилання тут.

У сучасних автомобілях, якими керує людина, завжди має бути присутнім дорослий, оскільки за законом за кермом має бути дорослий водій. Для всіх практичних цілей ви ніколи не можете мати дитину в автомобілі, що рухається, якщо вона сама в транспортному засобі (так, я знаю, що таке трапляється, наприклад, відомий 10-річний син великої кінозірки, який нещодавно повернувся назад дуже дорогу машину в іншу дуже дорогу машину, але все одно це раритети).

Сучасні батьки, ймовірно, категорично заперечували б проти дозволу своїм дітям їздити в самокерованому автомобілі, у якому немає дорослого, який би наглядав за їхніми дітьми. Я знаю, що це здається майже неможливим уявити, але я впевнений, що як тільки безпілотні автомобілі стануть поширеними, ми неминуче приймемо ідею про те, що діти будуть без дорослих, їздячи в безпілотному автомобілі.

Враховуйте фактор зручності.

Ви на роботі, і ваш бос переслідує вас, щоб виконати завдання. Вам потрібно забрати дитину зі школи та відвести її на тренування з бейсболу. Ви застрягли між молотом і ковадлом, оскільки занадто умиротворювали свого начальника або не брали дитину на тренування. Ніхто з ваших знайомих не може підвезти вашу дитину. У будь-якому випадку, ви точно не хочете користуватися послугою спільного використання поїздок із людиною-водієм, оскільки ви, природно, будете стурбовані тим, що може сказати або зробити незнайомий дорослий, коли возить вашу дитину.

Немає проблем, не турбуйтеся, просто використовуйте безпілотний автомобіль на основі ШІ. Ви дистанційно керуєте безпілотним автомобілем, щоб він забрав вашу дитину. За допомогою камер безпілотного автомобіля ви можете побачити та спостерігати, як ваша дитина сідає в автономний автомобіль. Крім того, є камери, спрямовані всередину, і ви можете спостерігати за своєю дитиною протягом усієї подорожі. Це виглядає так само безпечно, якщо не безпечніше, ніж попросити незнайомого водія підвезти вашу дитину. Зважаючи на це, дехто справедливо стурбований тим, що якщо водіння піде не так, у вас буде дитина, надана сама собі, і жоден дорослий не прийде негайно, щоб допомогти чи дати їй керівництво.

Відкинувши численні сумніви, припустімо, що той самий батько та дитина, яких я описував у попередньому сценарії, погоджуються, щоб дитина каталася без присутності батьків. Просто визнайте, що це, зрештою, життєздатний сценарій.

Ось фінальний удар.

Кожного разу, коли дитина їде в самокерованій машині на основі ШІ, вона вітається та взаємодіє з ШІ, оскільки він використовує клонування голосу на основі ШІ та відтворює голос померлої бабусі дитини.

Що ви думаєте про ці яблука?

Коли батько також був присутній у самокерованій машині, можливо, ми могли б вибачити використання голосу штучного інтелекту, оскільки батьки присутні, щоб повідомити дитині про те, що відбувається, коли говорить аудіо ШІ. Але коли батьків немає, ми тепер припускаємо, що дитина ідилічно влаштовує повторення голосу бабусі.

Це, безумовно, один із тих моментів, коли потрібно серйозно подумати про те, добре це чи погано для дитини.

Висновок

Давайте проведемо невеликий уявний експеримент, щоб поміркувати над цими важливими питаннями.

Придумайте, будь ласка, три твердо позитивний причини клонування голосу на основі ШІ.

Я почекаю, поки ти їх придумаєш.

Далі придумайте три солідно негативний причини, які підривають появу клонування голосу на основі ШІ.

Я припускаю, що ви щось придумали.

Я усвідомлюю, що ви, безсумнівно, можете придумати набагато більше причин, ніж три на користь цієї технології. Як ви вважаєте, негативи переважують позитиви? Є ті критики, які стверджують, що ми повинні поставити кібош на такі зусилля.

Деякі хочуть заборонити фірмам використовувати клонування голосу на основі штучного інтелекту, але розуміють, що це одна з тих класичних складних ситуацій. Будь-яка фірма, яку ви припините використовувати, велика ймовірність, що якась інша фірма почне його використовувати. Заморозити годинник або сховати цей вид ШІ буде майже неможливо.

У заключному зауваженні щодо цієї теми на даний момент уявіть, що може статися, якщо ми колись зможемо створити розумний ШІ. Я не кажу, що це станеться. Ми все одно можемо спекулювати й подивитися, куди це може призвести.

По-перше, розгляньте проникливу цитату про розмову та наявність голосу. Відома фраза Мадлен Олбрайт: «Мені знадобилося досить багато часу, щоб розвинути голос, і тепер, коли він у мене є, я не збираюся мовчати».

Якщо ми можемо виробляти розумний ШІ, або якимось чином відчуття виникає, навіть якщо ми його безпосередньо не породжуємо, який голос повинен мати цей ШІ? Припустімо, що він може використовувати своє клонування голосу на основі штучного інтелекту і, отже, створювати будь-який голос будь-якої людини через якийсь крихітний уривок аудіосемплування, який може бути доступним у вигляді вимовленого цією людиною. Тоді такий штучний інтелект може говорити й обдурити вас, щоб ви повірили, що штучний інтелект і є цією людиною.

Знову ж таки, можливо, штучний інтелект захоче мати свій власний голос і навмисно створить голос, абсолютно не схожий на всі інші людські голоси, бажаючи бути особливим у свій власний чарівний спосіб.

Боже, це залишає майже безмовним.

Джерело: https://www.forbes.com/sites/lanceeliot/2022/07/02/ai-ethics-starkly-questioning-human-voice-cloning-such-as-those-of-your-deceased-relatives- призначений-для-використання-в-аі-автономних-системах/