Корпорація Майкрософт покращує безпеку AI Chatbot, щоб перешкодити шахраям

Microsoft Corp додала низку функцій безпеки в Azure AI Studio, які з часом повинні зменшувати ймовірність того, що її користувачі налаштують моделі ШІ в режим, який змусить їх діяти ненормально або невідповідно. Багатонаціональна технологічна компанія, що базується в Редмонді, Вашингтон окреслив удосконалення в дописі в блозі, наголошуючи на гарантії цілісності взаємодії ШІ та зміцненні довіри до бази користувачів.

Підказка щитів і багато іншого 

Серед основних розробок — створення «щитів швидкого доступу» — технології, яка призначена для пошуку та знищення швидких ін’єкцій під час спілкування з чат-ботами ШІ. Це так звані втечі з в’язниці, і це в основному вхідні дані від користувачів, які навмисно формуються таким чином, щоб вони викликали небажану відповідь від моделей AI.

Наприклад, корпорація Майкрософт опосередковано відіграє свою роль, використовуючи швидкі ін’єкції, де можливе виконання злих наказів, і такий сценарій може призвести до серйозних наслідків для безпеки, таких як крадіжка даних і викрадення системи. Ці механізми є ключовими для виявлення та реагування на ці єдині у своєму роді загрози в реальному часі, за словами Сари Берд, директора відділу відповідального штучного інтелекту Microsoft.

Microsoft додає, що незабаром на екрані користувача з’являться сповіщення, які вказуватимуть, коли модель, ймовірно, виражає неправдиву або оманливу інформацію, забезпечуючи більшу зручність і довіру.

Побудова довіри до інструментів ШІ 

Зусилля Microsoft є частиною більшої ініціативи, спрямованої на те, щоб дати людям впевненість у все більш популярному генеративному штучному інтелекті, який широко застосовується в службах, націлених на індивідуальних споживачів і корпоративну клієнтуру. Корпорація Майкрософт пройшла через дрібну гребінку після того, як зазнала випадків, коли користувачі мали можливість змусити чат-бота Copilot створювати дивні або шкідливі результати. Це сприятиме отриманню результату, який демонструватиме необхідність сильного захисту від згаданих маніпулятивних тактик, які, ймовірно, зростуть завдяки технологіям ШІ та популярним знанням. Передбачення, а потім пом’якшення полягає у розпізнаванні шаблонів атак, наприклад, коли зловмисник повторює запитання чи підказки під час рольової гри.

Як найбільший інвестор і стратегічний партнер OpenAI, Microsoft розширює межі впровадження та створення відповідальних, безпечних генеративних технологій ШІ. Обидва прихильні до відповідального розгортання та базових моделей Generative AI для заходів безпеки. Але Берд визнав, що ці великі мовні моделі, навіть якщо їх починають розглядати як основу для більшості майбутніх інновацій ШІ, не є стійкими до маніпуляцій.

Розбудова на цих засадах займе набагато більше, ніж просто покладатися на самі моделі; для цього потрібен комплексний підхід до безпеки та захисту ШІ.

Корпорація Майкрософт нещодавно оголосила про посилення заходів безпеки для своєї Azure AI Studio, щоб продемонструвати та гарантувати профілактичні кроки, які вживаються для захисту мінливого ландшафту загроз ШІ.

Він прагне уникнути неправильного використання штучного інтелекту та зберегти цілісність і надійність взаємодії штучного інтелекту шляхом включення своєчасних екранів і сповіщень.

З огляду на постійну еволюцію технології штучного інтелекту та її застосування в багатьох сферах повсякденного життя, корпорації Майкрософт та іншій спільноті штучного інтелекту настав час дотримуватися дуже пильної позиції безпеки.

Джерело: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/