3 причини, чому вашій організації знадобляться зовнішні оцінювачі алгоритмів

Автор Сатта Сарма-Хайтауер

Лідери компаній витискають зі штучного інтелекту (ШІ) всю можливу цінність. Дослідження KPMG у 2021 році показало більшість керівників державних установ, промислового виробництва, фінансових послуг, роздрібної торгівлі, наук про життя та охорони здоров’я кажуть, що ШІ є принаймні помірно функціональним у їхніх організаціях. Дослідження також виявило, що половина респондентів стверджують, що їхня організація прискорила впровадження ШІ у відповідь на пандемію Covid-19. В організаціях, де застосовано ШІ, принаймні половина каже, що технологія перевершила очікування.

Алгоритми штучного інтелекту все більше відповідають за різноманітні сучасні взаємодії та інновації – від персоналізованих рекомендації щодо продуктів та обслуговування клієнтів досвід для банків рішення про кредитування і навіть відповідь поліції.

Але незважаючи на всі переваги, які вони пропонують, алгоритми штучного інтелекту пов’язані з великими ризиками, якщо вони не контролюються й не оцінюються на стійкість, справедливість, пояснюваність і цілісність. Щоб допомогти бізнес-лідерам у моніторингу та оцінці штучного інтелекту, згадане вище дослідження показує, що a Все більше керівників підприємств хочуть, щоб уряд регулював ШІ, щоб дозволити організаціям інвестувати в правильні технології та бізнес-процеси. Щоб отримати необхідну підтримку та нагляд, доцільно розглянути зовнішнє оцінювання, запропоноване постачальником послуг із досвідом надання таких послуг. Ось три причини.

1. Алгоритми – це «чорні ящики»

Алгоритми штучного інтелекту, які вивчають дані для вирішення проблем і оптимізації завдань, роблять системи розумнішими, дозволяючи їм збирати та генерувати інформацію набагато швидше, ніж коли-небудь могли б люди.

Однак деякі зацікавлені сторони вважають ці алгоритми «чорними скриньками», — пояснює Дрю Розен, керуючий директор з аудиту в KPMG, провідній фірмі з професійних послуг. Зокрема, деякі зацікавлені сторони можуть не розуміти, як алгоритм прийшов до певного рішення, і тому можуть бути не впевнені в справедливості чи точності цього рішення.

«Результати, отримані за допомогою алгоритму, можуть бути схильними до упередженості та неправильного тлумачення результатів», — каже Розен. «Це також може призвести до певних ризиків для організації, оскільки вони використовують ці результати та діляться [ними] з громадськістю та своїми зацікавленими сторонами».

Наприклад, алгоритм, який використовує помилкові дані, у кращому випадку неефективний, а в гіршому — шкідливий. Як це може виглядати на практиці? Розглянемо чат-бота на основі штучного інтелекту, який надає користувачам неправильну інформацію про обліковий запис, або інструмент автоматизованого перекладу, який неточно перекладає текст. Обидва випадки можуть призвести до серйозних помилок або неправильного тлумачення для державних установ або компаній, а також для учасників і клієнтів, які покладаються на рішення, прийняті цими алгоритмами.

Ще один внесок у проблему чорної скриньки полягає в тому, що притаманна упередженість проникає в розробку моделей ШІ, потенційно спричиняючи упереджене прийняття рішень. Наприклад, кредитори все частіше використовують штучний інтелект для прогнозування кредитоспроможності потенційних позичальників для прийняття рішень про кредитування. Однак ризик може виникнути, коли ключові вхідні дані в AI, такі як кредитний рейтинг потенційного позичальника, має істотну помилку, що призводить до того, що цим особам відмовляють у видачі кредитів.

Це підкреслює потребу в зовнішньому оцінювачі, який може служити неупередженим оцінювачем і забезпечувати цілеспрямовану оцінку, засновану на прийнятих критеріях, відповідності та надійності історичних даних і припущень, що забезпечують роботу алгоритму.

2. Зацікавлені сторони та регулятори вимагають прозорості

У 2022 році не існувало поточних вимог до звітності для відповідального ШІ. Однак, каже Розен, «подібно до того, як керівні органи запровадили регулювання ESG [екологічні, соціальні та управлінські] звіт про певні показники ESG, це лише питання часу, коли ми побачимо додаткові нормативні вимоги до звітності для відповідального ШІ».

Насправді з 1 січня 2023 року в Нью-Йорку Місцевий Закон 144 вимагає проведення перевірки упередженості автоматизованого інструменту прийняття рішень перед його використанням.

А на федеральному рівні Закон про національну ініціативу штучного інтелекту 2020 року— який спирається на a Розпорядження 2019 року— зосереджується на технічних стандартах і вказівках ШІ. Крім того, Закон про алгоритмічну підзвітність може вимагати оцінки впливу автоматизованих систем прийняття рішень і розширених процесів прийняття критичних рішень. І за кордоном, Закон про штучний інтелект було запропоновано комплексну нормативно-правову базу з конкретними цілями щодо безпеки ШІ, відповідності, управління та надійності.

З такими змінами організації знаходяться під мікроскопом управління. Оцінювач алгоритму може надавати такі звіти, які стосуються нормативних вимог і підвищують прозорість зацікавлених сторін, уникаючи ризику того, що зацікавлені сторони неправильно інтерпретують або введений в оману за результатами оцінювання.

3. Компанії отримують вигоду від довгострокового управління ризиками

Стів Камара, партнер практики технологічного забезпечення KPMG, прогнозує, що інвестиції в штучний інтелект продовжуватимуть зростати, оскільки компанії продовжуватимуть автоматизувати процеси, розробляти інновації, які покращують досвід клієнтів, і розподіляти розробки ШІ між бізнес-функціями. Щоб залишатися конкурентоспроможними та прибутковими, організаціям знадобляться ефективні засоби контролю, які не лише усувають миттєві недоліки штучного інтелекту, але й зменшують будь-які довгострокові ризики, пов’язані з бізнес-операціями на основі штучного інтелекту.

Тут виступають зовнішні оцінювачі як надійний та підкований ресурс. У міру того як організації все більше сприймають цілісність штучного інтелекту як засіб, що сприяє розвитку бізнесу, партнерство може стати не таким, як спеціальна послуга, а більшою мірою як послідовна співпраця, пояснює Камара.

«Ми бачимо шлях вперед, коли потрібно буде підтримувати постійні відносини між організаціями, які постійно розробляють і вводять в дію штучний інтелект, і об’єктивним зовнішнім оцінювачем», — говорить він.

Погляд на те, що буде далі

У майбутньому організації можуть використовувати зовнішні оцінки на більш циклічній основі, наприклад, коли вони розробляють нові моделі, завантажують нові джерела даних, інтегрують рішення сторонніх постачальників або орієнтуються на нові вимоги відповідності.

Якщо встановлені додаткові вимоги до регулювання та відповідності, зовнішні експерти можуть надати послуги для безпосередньої оцінки того, наскільки добре організація розгорнула або використала штучний інтелект відповідно до цих вимог. Тоді ці оцінювачі матимуть найкращі можливості для чіткого та послідовного обміну результатами оцінювання.

Щоб отримати вигоду від технології, а також захиститися від її обмежень, організація повинна шукати зовнішніх оцінювачів для надання звітів, на які вона потім може покладатися, щоб продемонструвати більшу прозорість під час розгортання алгоритмів. З цього моменту і організація, і зацікавлені сторони можуть краще зрозуміти потужність штучного інтелекту та його обмеження.

Джерело: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/