Ось чому між компаніями виникають бурхливі стосунки любові та ненависті з комісіями з етики ШІ

Чи варто компанії створювати консультативну раду з етики ШІ?

Ви можете бути здивовані, дізнавшись, що це нелегка відповідь «так чи ні».

Перш ніж я перейду до складнощів, що лежать в основі плюсів і мінусів створення консультативної ради з питань етики штучного інтелекту, давайте переконаємося, що ми всі розуміємо, з чого складається консультативна рада з етики штучного інтелекту та чому вона піднялася до рівня заголовка видатність.

Як усім відомо, штучний інтелект (ШІ) і практичне використання ШІ в бізнес-діяльності стали незамінними для сучасних компаній. Вам було б важко сперечатися інакше. Певною мірою впровадження штучного інтелекту покращило продукти та послуги, а також призвело до зниження витрат, пов’язаних із наданням цих продуктів і послуг. Чудовий список підвищення ефективності та ефективності потенційно можна віднести до розумного та відповідного застосування штучного інтелекту. Коротше кажучи, додавання або розширення того, що ви робите, шляхом включення ШІ може бути досить вигідною пропозицією.

Існує також скажімо так великий сплеск що приходить із додаванням ШІ у ваші корпоративні зусилля.

Підприємства гучно та пишаються своїм використанням ШІ. Якщо штучний інтелект також покращить ваші товари, це чудово. Тим часом заяви про використання штучного інтелекту достатньо привертають увагу, тому ви можете робити майже те саме, що робили раніше, але заробляти набагато більше доларів або очних яблук, розкидаючи прапор ШІ як частини вашої бізнес-стратегії та виходячи з дверні товари.

Останнє зауваження про те, що інколи трохи обманюють, чи справді використовується штучний інтелект, змушує нас перейти на арену етики штучного інтелекту. Підприємства роблять усілякі відверто неправдиві твердження щодо ШІ. Ще гірше, мабуть, полягає у використанні ШІ, який виявляється так званим ШІ для поганого.

Наприклад, ви, безсумнівно, читали про численні випадки систем штучного інтелекту, які використовують машинне навчання (ML) або глибоке навчання (DL), які мають вкорінені расові упередження, гендерні упередження та інші невиправдані неправомірні дискримінаційні практики. Щодо мого постійного та широкого висвітлення цих питань, пов’язаних із несприятливим штучним інтелектом та появою гучних закликів щодо етики штучного інтелекту та етики ШІ, див. посилання тут та посилання тут, просто назвемо декілька.

Отже, ми маємо ці кислі драйвери, приховані в, здавалося б, абсолютно рожевому використанні штучного інтелекту підприємствами:

  • Порожні заяви про використання штучного інтелекту, коли штучного інтелекту насправді немає або його введення незначне
  • Неправдиві заяви про використання штучного інтелекту, навмисно створені для введення в оману
  • Ненавмисне включення штучного інтелекту, яке, як виявляється, створює неналежні упередження та є дискримінаційним
  • Цілеспрямовано створений штучний інтелект для поширення поганих упереджень і огидних дискримінаційних дій
  • Інше

Як такі необдумані чи ганебні практики виникають у компаніях?

Однією з помітних частин головоломки є недостатня обізнаність щодо етики ШІ.

Топ-менеджери можуть не знати про саму ідею створення штучного інтелекту, який дотримується набору етичних принципів ШІ. Розробники штучного інтелекту в такій фірмі можуть мати певну обізнаність у цьому питанні, хоча, можливо, вони знайомі лише з теоріями етики штучного інтелекту та не знають, як подолати розрив у повсякденній розробці ШІ. Існує також обставина, коли розробники штучного інтелекту хочуть прийняти етику штучного інтелекту, але потім отримують сильну відсіч, коли менеджери та керівники вважають, що це сповільнить їхні проекти штучного інтелекту та збільшить витрати на розробку штучного інтелекту.

Багато керівників вищої ланки не усвідомлюють, що недотримання етики штучного інтелекту, швидше за все, призведе до того, що вони та компанія вдарять по задньому плані після випуску штучного інтелекту, який рясніє колючими та взагалі потворними проблемами. Фірма може бути спіймана з поганим штучним інтелектом, який потім жахливо підриває репутацію фірми, яку вона здобула протягом тривалого часу (репутаційний ризик). Клієнти можуть більше не використовувати продукти та послуги компанії (ризик втрати клієнта). Конкуренти можуть скористатися цією невдачею (конкурентний ризик). І є багато адвокатів, готових допомогти тим, хто був порушений, прагнучи подати значні позови проти фірм, які допустили гнилий штучний інтелект до товарів своїх компаній (правовий ризик).

Коротше кажучи, ROI (повернення інвестицій) для належного використання етики штучного інтелекту майже напевно є більш вигідним, ніж у порівнянні з подальшими витратами, пов’язаними з сидінням на вершині смороду поганого штучного інтелекту, який не слід було ні створювати, ні випускати.

Виявляється, так би мовити, не всі отримали ту пам’ятку.

Етика AI лише поступово набирає обертів.

Деякі вважають, що довга рука закону неминуче може знадобитися для подальшого надихання на впровадження етичних підходів ШІ.

Окрім застосування принципів етики штучного інтелекту в цілому, виникає відповідне питання про те, чи повинні ми мати відмінні закони для управління різними розробками та використанням штучного інтелекту. На міжнародному, федеральному, державному та місцевому рівнях дійсно діють нові закони, які стосуються діапазону та характеру того, як слід розробляти ШІ. Зусилля щодо розробки та прийняття таких законів є виваженими. Етика штучного інтелекту служить принаймні тимчасовим засобом і майже напевно певною мірою буде безпосередньо включена в ці нові закони.

Майте на увазі, що деякі категорично стверджують, що нам не потрібні нові закони, які стосуються ШІ, і що наших існуючих законів достатньо. Насправді вони попереджають, що якщо ми все-таки запровадимо деякі з цих законів про ШІ, ми вб’ємо золотого гусака, пригнічуючи досягнення ШІ, які дають величезні переваги для суспільства. Дивіться, наприклад, моє висвітлення на посилання тут та посилання тут.

Давайте переконаємося, що ми всі розуміємо, що містять основи етики ШІ.

У своїй колонці я раніше обговорював різні колективні аналізи принципів етики штучного інтелекту, наприклад цю оцінку на посилання тут, який пропонує корисний ключовий список етичних критеріїв ШІ або характеристик систем ШІ:

  • прозорість
  • Справедливість і справедливість
  • Незлочинність
  • Відповідальність
  • Конфіденційність
  • Вигода
  • Свобода і автономія
  • Довіряйте
  • Sustainability
  • Гідність
  • Солідарність

Ці принципи етики штучного інтелекту повинні щиро використовуватися розробниками штучного інтелекту, а також тими, хто керує розробкою штучного інтелекту, і навіть тими, хто в кінцевому підсумку розміщує та підтримує системи штучного інтелекту.

Усі зацікавлені сторони протягом усього життєвого циклу розробки та використання штучного інтелекту враховуються в межах дотримання встановлених норм етичного штучного інтелекту. Це важливий момент, оскільки звичайне припущення полягає в тому, що «лише кодери» або ті, хто програмує ШІ, підлягають дотриманню понять етики ШІ. Щоб розробити та запровадити штучний інтелект, потрібне село, і для цього все село має бути обізнаним і дотримуватися принципів етики штучного інтелекту.

Засіб спроби запровадити та утримувати постійну увагу щодо використання правил етики штучного інтелекту можна частково здійснити шляхом створення консультативної ради з питань етики штучного інтелекту.

Далі ми розкриємо аспекти консультативної ради з етики ШІ.

Комісії з етики штучного інтелекту та як їх правильно робити

Компанії можуть перебувати на різних етапах впровадження AI, а також на різних етапах впровадження етики AI.

Уявіть собі компанію, яка хоче почати впровадження етики ШІ, але не знає, як це зробити. Іншим сценарієм може бути фірма, яка вже пробувала етику штучного інтелекту, але, здається, не впевнена, що потрібно зробити для подальших зусиль. Третім сценарієм може бути фірма, яка активно розробляє та використовує штучний інтелект і внутрішньо робить багато для втілення етики штучного інтелекту, хоча вони усвідомлюють, що є шанс, що вони втрачають інші знання, можливо, через внутрішнє групове мислення.

Для будь-якого з цих сценаріїв створення консультативної ради з етики ШІ може бути розумним.

Ідея досить проста (ну, щоб уточнити, загальна ідея є вершиною айсберга, і диявол, безумовно, криється в деталях, про що ми зараз розглянемо).

Консультативна рада з етики штучного інтелекту зазвичай складається переважно із зовнішніх радників, яких просять працювати в спеціальній консультативній раді або комітеті фірми. До ради також можуть входити деякі внутрішні учасники, хоча зазвичай ідея полягає в тому, щоб залучити радників з-поза фірми, і це може надати напівнезалежну точку зору на те, що робить компанія.

Я кажу напівнезалежним, оскільки, безсумнівно, можуть виникнути деякі потенційні конфлікти щодо незалежності, які можуть виникнути з обраними членами консультативної ради з етики ШІ. Якщо фірма платить радникам, виникає очевидне питання про те, чи оплачувані учасники відчувають залежність від фірми в отриманні зарплати, чи їм може бути непросто критикувати подарованого коня, який вони мають у руках. З іншого боку, підприємства звикли використовувати зовнішніх оплачуваних консультантів для будь-яких розглядуваних незалежних думок, тому це є певною мірою звичним і очікуваним у будь-якому випадку.

Консультативну раду з питань етики штучного інтелекту зазвичай просять періодично збиратися особисто або на віртуальній віддаленій основі. Вони використовуються фірмою як дека. Цілком імовірно, що учасникам надають різноманітні внутрішні документи, звіти та записки про зусилля, пов’язані з ШІ у фірмі. Окремих членів консультативної ради з етики штучного інтелекту можуть попросити взяти участь у внутрішніх засіданнях відповідно до їхніх конкретних знань. тощо

Крім того, що він може бачити, що відбувається з ШІ у фірмі, і надавати нові погляди, консультативна рада з питань етики штучного інтелекту зазвичай виконує подвійну роль: бути зовнішнім постачальником останніх технологій ШІ та етичного ШІ. Внутрішні ресурси можуть не мати часу, щоб досліджувати те, що відбувається за межами фірми, і, отже, вони можуть отримати чітко сфокусовані та адаптовані найсучасніші точки зору від членів консультативної ради з питань етики ШІ.

Консультативна рада з питань етики штучного інтелекту також може використовуватися зсередини назовні.

Це може бути складно.

Концепція полягає в тому, що консультативна рада з етики штучного інтелекту використовується для того, щоб повідомити зовнішньому світу, що робить фірма, коли справа доходить до штучного інтелекту та його етики. Це може бути зручно як засіб для зміцнення репутації фірми. Продукти та послуги, наповнені штучним інтелектом, можуть сприйматися як більш надійні через золоту печатку схвалення консультативної ради з етики штучного інтелекту. Крім того, заклики до фірми робити більше з етичним штучним інтелектом можна дещо притупити, зазначивши, що консультативна рада з питань етики штучного інтелекту вже використовується компанією.

Питання, які фірма, що використовує такий механізм, зазвичай передає до консультативної ради з питань етики ШІ, часто включають:

  • Чи повинна фірма використовувати штучний інтелект для певного продукту чи послуги, чи це здається надто тривожним?
  • Чи враховує фірма весь спектр міркувань етики штучного інтелекту у своїх зусиллях щодо штучного інтелекту?
  • Чи фірма впала в групове мислення та не бажає або не може бачити потенційно тривожні падіння етики штучного інтелекту, які очікують на ці зусилля?
  • Які новітні підходи до етики штучного інтелекту компанія повинна прагнути застосувати?
  • Чи можливо було б запропонувати зовнішнє визнання за наші зусилля з етики ШІ та відданість їм?
  • Інше

Залучення до консультативної ради з етики штучного інтелекту, безумовно, має сенс, і компанії все частіше йдуть цим шляхом.

Майте на увазі, що у цієї медалі є інший бік.

З одного боку медалі, консультативні ради з етики штучного інтелекту можуть бути наступною найкращою річчю після нарізаного хліба. Не нехтуйте іншою стороною медалі, а саме вони також можуть бути монументальним головним болем, і ви можете пошкодувати, що зайшли на цю ризиковану територію (як ви побачите в цій дискусії, з недоліками можна впоратися, якщо знати, що роблять).

Компанії починають усвідомлювати, що вони можуть опинитися в невеликій скруті, якщо вирішать піти шляхом консультативної ради з етики штучного інтелекту. Можна сказати, що ця махінація чимось схожа на гру з вогнем. Розумієте, вогонь — це дуже потужний елемент, який ви можете використовувати, щоб готувати їжу, захищати себе від хижаків у пустелі, зігрівати вас, дарувати світло та надавати низку корисних і життєво важливих переваг.

Вогонь також може призвести до опіків, якщо ви не в змозі впоратися з ним добре.

Останнім часом з’явилися різні заголовки новин, які яскраво демонструють потенційну небезпеку наявності консультативної ради з етики ШІ. Якщо учасник швидко вирішить, що він більше не вірить у те, що фірма здійснює правильну етичну діяльність у сфері штучного інтелекту, незадоволений учасник може вийти з величезного обурення. Якщо припустити, що ця особа, ймовірно, добре відома в галузі штучного інтелекту або загалом у галузі, її стрибучий корабель обов’язково приверне широку увагу ЗМІ.

Тоді фірма повинна перейти на захист.

Чому учасник пішов?

Що нечесно задумала компанія?

Деякі фірми вимагають, щоб члени консультативної ради з етики штучного інтелекту підписували NDA (угоди про нерозголошення), які, здавалося б, захистять фірму, якщо член вирішить стати «шахраєм» і розгромити компанію. Однак проблема полягає в тому, що навіть якщо ця особа залишається відносно мовчазною, тим не менше існує ймовірне підтвердження того, що вона більше не є членом консультативної ради з етики ШІ. Це само по собі викличе всілякі запитання, що викликають сумніви.

Крім того, навіть якщо NDA існує, іноді учасник намагатиметься обійти положення. Це може включати посилання на неназвані загальні «кейси», щоб висвітлити аномалії етики штучного інтелекту, які, на їхню думку, фірма підступно виконувала.

Занедбаний член може виявитися абсолютно нахабним і прямо висловити свої занепокоєння щодо компанії. Чи є це явним порушенням NDA, дещо, мабуть, менш важливо, ніж той факт, що інформація поширюється через сумніви щодо етичного штучного інтелекту. Фірма, яка намагається подати до суду на члена за порушення NDA, може жорстоко налити на себе гарячу воду, привертаючи додаткову увагу до суперечки та виглядаючи класичним двобоєм Давида проти Голіафа (фірма є великим «монстром»).

Деякі топ-менеджери припускають, що вони можуть просто досягти фінансової угоди з будь-яким членом консультативної ради з питань етики ШІ, який вважає, що фірма робить неправильні речі, зокрема ігнорує або применшує висловлені занепокоєння.

Це може бути не так просто, як хтось припускає.

Часто учасники віддано етично налаштовані і не готові відступитися від того, що вони сприймають як етичну боротьбу «правильне проти неправильного». Вони також можуть бути фінансово стабільними й не бажають відмовлятися від своїх етичних принципів, або вони можуть мати іншу роботу, яка залишається недоторканою після того, як вони залишили консультативну раду з етики ШІ.

Як може бути очевидно, дехто згодом усвідомлює, що консультативна рада з етики штучного інтелекту — це палка з двома кінцями. Така група може передати величезну цінність і важливе розуміння. При цьому ви граєтеся з вогнем. Можливо, учасник або учасники вирішать, що вони більше не вірять, що фірма виконує надійну роботу з етики ШІ. У новинах є вказівки на те, що іноді вся консультативна рада з питань етики штучного інтелекту покидає роботу разом, усі разом, або деякі члени, які переважають, оголошують про відхід.

Будьте готові до хорошого та проблем, які можуть виникнути з консультативними радами з етики ШІ.

Звичайно, бувають випадки, коли компанії фактично не роблять належних речей, коли справа доходить до етики ШІ.

Тому ми сподіваємось і очікуємо, що консультативна рада з етики штучного інтелекту в цій фірмі активізується, щоб повідомити про це, ймовірно, спочатку всередині фірми. Якщо фірма продовжуватиме ймовірно поганий шлях, учасники, безперечно, будуть етично зобов’язані (можливо, також і юридично) вжити інших заходів, які вони вважають доцільними (учасники повинні проконсультуватися зі своїм особистим адвокатом для будь-якої такої юридичної консультації). Можливо, це єдиний спосіб змусити компанію змінити свою поведінку. Рішучі дії члена або групи учасників можуть здатися останнім заходом, який члени сподіваються переломити ситуацію. Крім того, ці учасники, швидше за все, не хочуть бути частиною чогось, що, на їхню гарячу думку, відійшло від етики ШІ.

Корисний спосіб розглянути ці можливості:

  • Фірма збивається з ладу, учасник вирішує вийти через відчутну відсутність відповідності фірми
  • Фірма не заблукала, але учасник вважає, що фірма є, і, отже, виходить через уявну відсутність відповідності

Зовнішній світ не обов’язково знатиме, чи має член, який виходить, добросовісні підстави для занепокоєння щодо фірми, чи це може бути якесь своєрідне чи неправильне враження члена. Існує також досить проста можливість покинути член групи через інші зобов’язання або з особистих причин, які не мають нічого спільного з тим, чим займається фірма.

Суть полягає в тому, що для будь-якої фірми, яка запроваджує консультативну раду з питань етики штучного інтелекту, важливо ретельно продумати весь спектр етапів життєвого циклу, пов’язаних з групою.

З усіма цими розмовами про проблемні аспекти, я не хочу створювати враження, що тримаюся подалі від наявності консультативної ради з етики ШІ. Це не те повідомлення. Справжня суть полягає в тому, щоб створити консультативну раду з етики ШІ та переконатися, що ви робите це правильно. Перетворіть це на свою заповітну мантру.

Ось деякі з часто згадуваних переваг консультативної ради з етики ШІ:

  • Майте під рукою засоби для передачі проектів та ідей штучного інтелекту напівнезалежній приватній групі
  • Використовуйте досвід у сфері етики штучного інтелекту, отриманий за межами фірми
  • Прагніть уникати реготу з питань етики ШІ та відвертих катастроф з боку фірми
  • Підтримуйте зв’язки з громадськістю для фірми та її систем ШІ
  • Прорив внутрішнього групового мислення щодо ШІ та етики ШІ
  • Отримайте новий погляд на інновації ШІ та їх практичність
  • Підвищити репутацію та статус фірми
  • Служити неприборканим голосом, коли зусилля фірми AI загинуть
  • Інше

Ось поширені способи, якими фірми псують і підривають свою консультативну раду з етики ШІ (не робіть цього!):

  • Надайте нечіткі та заплутані вказівки щодо місії та мети
  • Тільки скупо консультуються і часто невчасно після того, як кінь уже вийшов із хліва
  • Зберігали в темряві
  • Fed сильно відфільтрувала інформацію, яка надає оманливе зображення речей
  • Використовується виключно як вітрина і не має жодної іншої мети створення цінності
  • Не дозволяється проводити будь-яку подобу розвідки про внутрішні справи
  • Не мають достатніх ресурсів для належного виконання своєї роботи
  • Відсутність явного лідерства в групі
  • Недостатня увага керівництва фірми до групи
  • Очікується сліпе схвалення будь-якого представленого
  • Вибір членів випадковий
  • Ставилися з невеликою повагою і, здавалося б, просто галочка
  • Інше

Інша проблема, яка часто викликає плутанину, пов’язана з характером і поведінкою різних членів консультативної ради з етики штучного інтелекту, що іноді може бути проблематичним у такий спосіб:

  • Деякі учасники можуть бути лише концептуалізаторами етики штучного інтелекту, а не розбираються в етиці штучного інтелекту як практиці, і як такі надають мінімалістичну бізнес-підковану інформацію
  • Деякі можуть бути надменними, коли справа доходить до етики штучного інтелекту, і з ними надзвичайно важко мати справу під час їхньої участі
  • Внутрішня боротьба може стати суттєвим відволікаючим фактором, часто спричиняючи зіткнення великих его, і призвести до того, що група перетвориться на дисфункціональну
  • Деякі можуть бути надто зайняті та надмірно віддані, тому вони осторонь від консультаційних зусиль з етики штучного інтелекту
  • Деякі мають глибоко непохитну думку про етику ШІ, яка є негнучкою та нереалістичною
  • Деякі схильні до емоційних, а не до аналітичних і системних міркувань, що лежать в основі етики ШІ
  • Може бути схоже на відоме прислів’я про те, як бути як стадо котів, які не зосереджуються і безцільно блукають
  • Інше

Здається, що деякі фірми просто хочуть чи не хочуть об’єднують консультативну раду з етики ШІ. Жодна думка не йде про членів, яких буде обрано. Не варто думати про те, що вони приносять до столу. Жодна думка не йде про частоту зустрічей і те, як вони мають проводитися. Загалом, ніхто не думає про те, щоб керувати консультативною радою з етики штучного інтелекту. тощо

У певному сенсі через власну невинахідливість ви, швидше за все, спричините аварію поїзда.

Не роби цього.

Можливо, цей список робити правильні речі тепер нібито очевидний для вас, виходячи з поточного дискурсу, але ви, можливо, були б шоковані, дізнавшись, що небагато фірм, здається, розуміють це правильно:

  • Чітко визначте місію та мету консультативної ради з етики ШІ
  • Переконайтеся, що групі буде приділено належну увагу на вищому рівні
  • Визначте тип членів, які найкраще підходять для групи
  • Зверніться до бажаних членів і визначте, чи вони підходять для групи
  • Укладіть відповідні домовленості з обраними членами
  • Встановити матеріально-технічне забезпечення зустрічей, періодичність тощо.
  • Визначте обов'язки членів, обсяг і глибину
  • Передбачте внутрішні ресурси, необхідні для допомоги групі
  • Виділіть достатньо ресурсів для самої групи
  • Тримайте консультативну раду з питань етики штучного інтелекту активною та постійною
  • Заздалегідь заплануйте ескалацію, коли виникнуть проблеми
  • Вкажіть, як будуть реагувати на надзвичайні ситуації або події, орієнтовані на кризу
  • За потреби змінюйте членів, щоб підтримувати відповідність суміші
  • Заздалегідь передбачте шляхи виходу для учасників
  • Інше

Висновок

Кілька років тому багато автовиробників і технологічних компаній, що займаються безпілотним керуванням, які починають розробляти безпілотні автомобілі на основі штучного інтелекту, раптово спонукали до дій щодо створення консультативних рад з етики штучного інтелекту. До цього моменту, здавалося, було мало відомостей про існування такої групи. Передбачалося, що внутрішньої уваги до Етичного ШІ буде достатньо.

У своїй колонці я детально обговорював різноманітні прикрі помилки або недогляди в етичних нормах штучного інтелекту, які іноді призводили до проблем із самокерованими автомобілями, як-от незначні транспортні аварії, явні зіткнення автомобілів та інші нещастя. Дивіться моє висвітлення на посилання тут. Важливість безпеки штучного інтелекту та подібних засобів захисту має бути найвищою мірою для тих, хто створює автономні транспортні засоби. Консультативні ради з етики штучного інтелекту в цій ніші допомагають зберегти безпеку ШІ життєво важливим пріоритетом.

Мій улюблений спосіб виразити таке одкровення щодо етики штучного інтелекту – це порівняти це питання із землетрусами.

Жителі Каліфорнії час від часу піддаються землетрусам, іноді досить сильним. Ви можете подумати, що підготовка до землетрусу буде актуальною мірою. Не так. Цикл працює таким чином. Відбувається значний землетрус, і людям нагадують про те, що вони готові до землетрусу. На короткий час є поспіх, щоб взятися за такі приготування. Через деякий час увага до цього втрачається. Підготовка залишається на узбіччі або іншим чином нехтується. Бум, ще один землетрус, і всі ті, хто мав бути готовий, застають «зненацька», наче не підозрюють, що землетрус колись може статися.

Компанії часто роблять те ж саме щодо консультативних рад з етики ШІ.

Вони не починають жодного, а потім раптово, після якоїсь катастрофи в їхньому штучному інтелекті, їх спонукають до дій. Вони легковажно заснували консультативну раду з етики ШІ. Він має багато проблем, про які я згадував раніше. Консультативна рада з етики ШІ розпадається. На жаль, нове лихо зі штучним інтелектом у фірмі знову пробуджує потребу в дорадчій раді з етики штучного інтелекту.

Вимийте, прополощіть і повторіть.

Компанії, безсумнівно, виявляють, що інколи у них виникають стосунки «любов-ненависть» із зусиллями консультативної ради з етики штучного інтелекту. Коли потрібно робити все правильно, любов витає в повітрі. Коли справа доходить до того, щоб щось робити неправильно, люта ненависть виникає. Переконайтеся, що ви робите все необхідне, щоб зберегти любов і запобігти ненависті, коли справа доходить до створення та підтримки консультативної ради з етики ШІ.

Давайте перетворимо це на любовні стосунки.

Джерело: https://www.forbes.com/sites/lanceeliot/2022/08/08/heres-why-businesses-are-having-a-tumultuous-love-hate-relationship-with-ai-ethics-boards/