Експерти стверджують, що інструменти найму на роботу на основі штучного інтелекту не можуть покращити різноманітність найму

Топ лінія

Дослідники з Кембриджського університету стверджували в неділю, що дослідники з Кембриджського університету стверджували, що інструменти найму на роботу, які нібито використовують штучний інтелект для уникнення гендерних і расових упереджень, можуть не покращити різноманітність під час прийому на роботу, а насправді можуть увічнити ці упередження. як спосіб використання технології для швидкого вирішення глибшої проблеми.

Ключові факти

У статті, опублікованій Філософія і технологія, дослідники розглянули заяви кількох компаній, які пропонують інструменти найму на основі штучного інтелекту, багато з яких стверджують, що усувають упередження та сприяють різноманітності, приховуючи імена, стать та інші ідентифікатори кандидатів, а деякі з них ранжувати кандидатів на основі сканування резюме, онлайн-оцінювання та аналізу мови та виразу обличчя претендентів.

Дослідники — двоє професорів Центру гендерних досліджень Кембриджського університету — стверджували, що ці інструменти можуть справді сприяти одноманітності при прийомі на роботу, оскільки вони відтворюють культурні упередження «ідеального кандидата», яким історично були білі або європейці.

Інструменти також можуть не покращити різноманітність, оскільки вони базуються на даних минулих компаній і, отже, можуть просувати кандидатів, які найбільше схожі на поточних співробітників.

Є «невелика відповідальність за те, як ці продукти створені або тестовані», — сказала в заяві Елеонор Драге, співавтор дослідження та дослідник Центру гендерних досліджень Кембриджського університету, додавши, що технологія може бути «небезпечною». джерело «дезінформації про те, як набір може бути «неупередженим» і зробити більш справедливим».

Вирішальна цитата

«Стверджуючи, що расизм, сексизм та інші форми дискримінації можна усунути в процесі найму за допомогою штучного інтелекту, ці компанії зводять расу та стать до незначних точок даних, а не системи влади, які формують те, як ми рухаємося у світі, – йдеться в заяві Драге.

Дотичний

Amazon оголосив про це в 2018 році СТОП використання інструменту рекрутингу штучного інтелекту для перегляду резюме претендентів на роботу після того, як було виявлено, що система жорстко дискримінує жінок. Це пов’язано з тим, що комп’ютерні моделі, на які він спирався, були розроблені на основі резюме, поданих компанії протягом останніх 10 років, які в основному надходили від претендентів-чоловіків.

Основна інформація

Організації все частіше звертаються до штучного інтелекту, щоб допомогти керувати процесами найму на роботу. В одному Опитування 2020 З понад 300 керівників відділу кадрів, яких цитують автори недільної статті, консалтингова компанія Gartner виявила, що 86% роботодавців використовують віртуальні технології під час працевлаштування. Ця тенденція посилилася після пандемії Covid-19, яка змусила багатьох перевести роботу в Інтернет. Хоча деякі компанії стверджують, що штучний інтелект може запропонувати більш економічно ефективний процес найму, деякі experts мати знайдений системи мають тенденцію сприяти — замість того, щоб усувати — працевлаштування з расовими та гендерними упередженнями шляхом копіювання існуючих упереджень з реального світу. Кілька законодавців США зробили це спрямований щоб усунути упередження в системах штучного інтелекту, оскільки технологія продовжує швидко розвиватися, і існує небагато законів, які б її регулювали. Цього тижня Білий дім опублікував «Проект Білля про права на штучний інтелект», в якому стверджується, що алгоритми, що використовуються під час найму, «відображають і відтворюють існуючу небажану несправедливість» або впроваджують нові «упередження та дискримінацію». План, який не є юридично обов’язковим або офіційною державною політикою, закликає компанії переконатися, що штучний інтелект не дискримінує та не порушує конфіденційність даних, а також повідомляти користувачам про те, коли використовується технологія.

Що потрібно дивитися

У списку рекомендацій автори Sunday's Філософія і технологія Згідно з документом, компанії, які розробляють технології ШІ, зосереджуються на ширшій систематичній нерівності замість «індивідуалізованих випадків упередженості». Наприклад, вони пропонують розробникам програмного забезпечення вивчити категорії, які використовуються для сортування, обробки та класифікації кандидатів, і те, як ці категорії можуть сприяти дискримінації, покладаючись на певні припущення щодо статі та раси. Дослідники також стверджують, що спеціалісти з кадрів повинні спробувати зрозуміти, як працюють інструменти підбору кадрів зі штучним інтелектом і які їхні потенційні обмеження.

Дивовижний факт

Європейський Союз класифікував програмне забезпечення для найму на роботу та інструменти оцінки ефективності на базі ШІ як «високий ризик» у своєму новому проект законодавча база щодо штучного інтелекту, тобто інструменти підлягатимуть більшій перевірці та відповідатимуть певним вимогам відповідності.

Подальше читання

DC хоче очолити боротьбу з упередженням штучного інтелекту (Аксіос)

Джерело: https://www.forbes.com/sites/madelinehalpert/2022/10/09/ai-powered-job-recruitment-tools-may-not-improve-hiring-diversity-experts-argue/