ФБР попереджає про шахрайство з вимаганням AI Deepfake

Здатності генеративного штучного інтелекту створювати реалістичні зображення вражають, але Федеральне бюро розслідувань США стверджує, що злочинці використовують глибокі фейки для вимагання жертв.

«ФБР продовжує отримувати звіти від жертв, включаючи неповнолітніх дітей і дорослих, чиї фото або відео було змінено на відвертий вміст», — йдеться в повідомленні агентства в понеділок.

ФБР повідомляє, що минулого року правоохоронні органи отримали понад 7,000 повідомлень про онлайн-вимагання, націлені на неповнолітніх, із зростанням кількості жертв так званих «сексуальних шахрайств» з використанням глибоких фейків з квітня.

Дипфейк — це все більш поширений тип відео- чи аудіовмісту, створеного за допомогою штучного інтелекту, який зображує неправдиві події, які дедалі важче розпізнати як фейкові, завдяки генеративним платформам штучного інтелекту, таким як Midjourney 5.1 і OpenAI DALL-E 2.

У травні дипфейк генерального директора Tesla та Twitter Ілона Маска, створений для обману криптоінвесторів, став вірусним. Відео, опубліковане в соціальних мережах, містило кадри попередніх інтерв'ю Маска, відредаговані відповідно до афери.

Не всі дипфейки є зловмисними, дипфейк Папи Франциска в білій куртці Balenciaga став вірусним на початку цього року, а нещодавно дипфейки, створені штучним інтелектом, також використовувалися, щоб повернути жертвам вбивства до життя.

У своїх рекомендаціях ФБР застерегло від сплати будь-яких викупів, оскільки це не гарантує, що злочинці все одно не опублікують дипфейк.

ФБР також рекомендує бути обережними під час обміну особистою інформацією та вмістом в Інтернеті, включно з використанням функцій конфіденційності, таких як надання облікових записів приватності, моніторинг активності дітей в Інтернеті та спостереження за незвичною поведінкою людей, з якими ви спілкувалися в минулому. Агентство також рекомендує часто шукати в Інтернеті особисту інформацію та інформацію про членів сім’ї.

Інші агентства, які б’ють на сполох, включають Федеральну торгову комісію США, яка попередила, що злочинці використовували дипфейки, щоб обманом змусити нічого не підозрюючих жертв надіслати гроші після створення аудіо дипфейку друга або члена сім’ї, який повідомляє, що їх викрали.

«Штучний інтелект більше не є надуманою ідеєю з науково-фантастичного фільму. Ми живемо з цим тут і зараз. Шахрай може використати штучний інтелект, щоб клонувати голос вашої коханої людини», — йдеться в повідомленні FTC у березні, додаючи, що всі злочинці потребують короткого аудіозапису голосу члена сім’ї, щоб запис звучав реально.

ФБР поки не відреагувало Розшифрувати запит на коментар.

Будьте в курсі криптовалютних новин, отримуйте щоденні оновлення на свою поштову скриньку.

Джерело: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams