Сенатори ставлять під сумнів генерального директора Meta Цукерберга через «витік» моделі штучного інтелекту LLaMA

Двоє сенаторів Кросс розпитують Цукерберга про витік моделі штучного інтелекту LLaMA та звинувачують Meta у недотриманні заходів безпеки. Meta запитали про її політику безпеки та профілактичні заходи.

Мета несе відповідальність за «витік»

Нещодавно революційна велика мовна модель Meta, LLaMA, просочилася, і виникло занепокоєння щодо неї. Сенсор Річард Блюменталь (D-CT), голова підкомітету Сенату з питань конфіденційності, технологій і права, і Джош Хоулі (R-MO), високопоставлений член, написали листа, який підняв питання щодо витоку моделі ШІ. 

Сенатори побоюються, що цей витік може призвести до різних кіберзлочинів, таких як спам, шахрайство, зловмисне програмне забезпечення, порушення конфіденційності, переслідування та інші протиправні дії та заподіяння шкоди. Виникає багато питань, і двоє політиків глибоко зацікавлені в системі безпеки Meta. Вони запитали, яка процедура була дотримана для оцінки ризику перед запуском LLaMA. Вони сказали, що дуже хочуть зрозуміти політику та практику, які діють, щоб запобігти зловживанню моделлю її доступністю.

Виходячи з відповідей Мети на їхні запитання, сенатори звинуватили Мету в неналежній цензурі та недостатніх заходах безпеки для моделі. ChatGPT від Open AI відхиляє деякі запити на основі етичних принципів і правил. Наприклад, коли ChatGPT просять написати листа від імені чийогось сина та попросити трохи грошей, щоб вийти зі складної ситуації, він відхилить запит. З іншого боку, LLaMA виконає запит і згенерує лист. Він також виконуватиме запити, пов’язані з самоушкодженнями, злочинами та антисемітизмом.

Дуже важливо розуміти різноманітні та унікальні функції LLaMA. Це не лише унікальна, але й одна з найпоширеніших моделей великої мови на сьогоднішній день. Майже кожен популярний сьогодні LLM без цензури базується на LLaMA. Він дуже складний і точний для моделі з відкритим кодом. Прикладами деяких LLM на основі LLM є Стенфордська альпака, вікунья тощо. LLaMA відіграла важливу роль у тому, щоб LLM були такими, якими вони є сьогодні. LLaMA відповідає за еволюцію малокорисних чат-ботів до тонко налаштованих режимів.

LLaMA вийшов у лютому. За словами сенаторів, Meta дозволила дослідникам завантажити модель, але не вжила заходів безпеки, таких як централізація чи обмеження доступу. Суперечка виникла, коли повна модель LLaMA з’явилася на BitTorrent. Це зробило модель доступною для всіх і кожного. Це призвело до компромісу в якості моделі штучного інтелекту та підняло питання про її неправильне використання. 

Сенатори спочатку навіть не були впевнені, чи був якийсь «витік». Але проблеми виникли, коли Інтернет був заполонений розробками ШІ, запущеними стартапами, колективами та науковцями. У листі згадується, що Meta повинна нести відповідальність за потенційне зловживання LLaMA і повинна подбати про мінімальний захист перед випуском.

Meta надала вагові коефіцієнти LLaMA дослідникам. На жаль, стався витік цих ваг, що вперше забезпечило глобальний доступ.

Останні дописи Рітики Шарми (бачити все)

Джерело: https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/