Ekspertai teigia, kad dirbtinio intelekto įdarbinimo įrankiai gali nepadidinti įdarbinimo įvairovės

TOPLINE

Įdarbinimo įrankiai, kuriuose teigiama, kad naudojami dirbtinis intelektas, kad būtų išvengta lyčių ir rasinių nusistatymų, gali nepadidinti samdymo įvairovės ir iš tikrųjų gali išsaugoti šiuos išankstinius nusistatymus, sekmadienį teigė Kembridžo universiteto mokslininkai, skirdami programas, kurios praeityje sulaukė kritikos. kaip būdas naudoti technologiją siekiant greitai išspręsti gilesnę problemą.

svarbiausi faktai

Straipsnyje, kurį paskelbė Filosofija ir technologijostyrėjai išnagrinėjo kelių kompanijų, siūlančių dirbtinio intelekto įdarbinimo įrankius, pareiškimus, kurių daugelis teigia, kad pašalina šališkumą ir skatina įvairovę, nes slepia kandidatų vardus, lytis ir kitus identifikatorius, o kai kurios iš jų reitingą kandidatai, remiantis gyvenimo aprašymų nuskaitymais, internetiniais vertinimais ir pretendentų kalbos bei veido išraiškų analize.

Tyrėjai – du Kembridžo universiteto Lyčių studijų centro profesoriai – tvirtino, kad šios priemonės iš tikrųjų gali skatinti vienodą samdymą, nes atkuria „idealaus kandidato“, kuris istoriškai buvo baltaodžiai arba europiečiai vyrai, kultūrinį šališkumą.

Įrankiai taip pat gali nepadidinti įvairovės, nes yra pagrįsti ankstesniais įmonės duomenimis, todėl gali skatinti kandidatus, kurie yra labiausiai panašūs į dabartinius darbuotojus.

Eleanor Drage, tyrimo bendraautorė ir Kembridžo universiteto Lyčių studijų centro tyrėja, pareiškime teigė, kad „neatsakoma už tai, kaip šie produktai gaminami ar išbandomi“, ir pridūrė, kad ši technologija gali būti „pavojinga“. „dezinformacijos apie tai, kaip įdarbinimas gali būti nešališkas ir teisingesnis“ šaltinis.

Svarbi citata

„Teigdamos, kad rasizmas, seksizmas ir kitos diskriminacijos formos gali būti pašalintos iš samdymo proceso naudojant dirbtinį intelektą, šios įmonės sumažina rasę ir lytį iki nereikšmingų duomenų taškų, o ne galios sistemas, kurios formuoja mūsų judėjimą pasaulyje. “, - sakoma Drage'o pranešime.

Tangentas

„Amazon“ paskelbė, kad tai padarys 2018 m sustabdyti naudojo dirbtinio intelekto įdarbinimo įrankį, kad peržiūrėtų kandidatų į darbą gyvenimo aprašymus, kai buvo nustatyta, kad sistema labai diskriminuoja moteris. Taip yra todėl, kad kompiuterių modeliai, kuriais ji rėmėsi, buvo sukurti remiantis per pastaruosius 10 metų įmonei pateiktomis gyvenimo aprašymais, kuriuos dažniausiai pateikė vyrai.

Pagrindinės aplinkybės

Organizacijos vis dažniau kreipiasi į AI, kad padėtų valdyti įdarbinimo procesus. Viename 2020 apklausa Iš daugiau nei 300 žmogiškųjų išteklių lyderių, kuriuos cituoja sekmadienio laikraščio autoriai, konsultacijų įmonė „Gartner“ nustatė, kad 86 % darbdavių samdydami naudoja virtualias technologijas, o ši tendencija paspartėjo nuo tada, kai COVID-19 pandemija privertė daugelį perkelti darbą internetu. Nors kai kurios bendrovės teigė, kad dirbtinis intelektas gali pasiūlyti ekonomiškesnį ir ekonomiškesnį samdymo procesą, kai kurios ekspertai turėti steigti sistemos turi tendenciją skatinti, o ne panaikinti rasinį ir lyties šališką samdymą, atkartodamos esamus išankstinius nusistatymus iš realaus pasaulio. Keli JAV įstatymų leidėjai Skirtas kovoti su dirbtinio intelekto sistemų šališkumu, nes technologija ir toliau sparčiai vystosi ir egzistuoja nedaug įstatymų, reguliuojančių ją. Baltieji rūmai šią savaitę paskelbė „AI Bill of Rights“ planas, kuriame teigiama, kad samdant algoritmus buvo nustatyta, kad jie „atspindi ir atkuria esamą nepageidaujamą nelygybę“ arba įtraukia naują „šališkumą ir diskriminaciją“. Projekte, kuris nėra teisiškai privalomas ar oficiali vyriausybės politika, įmonės raginamos užtikrinti, kad dirbtinis intelektas nediskriminuotų ir nepažeistų duomenų privatumo, ir informuoti vartotojus apie tai, kada ši technologija naudojama.

Ką reikia stebėti

Rekomendacijų sąraše sekmadienio autoriai Filosofija ir technologijos dokumente buvo pasiūlyta, kad AI technologijas kuriančios įmonės sutelktų dėmesį į platesnę, sisteminę nelygybę, o ne į „individualius šališkumo atvejus“. Pavyzdžiui, jie siūlo programinės įrangos kūrėjams ištirti kategorijas, naudojamas kandidatams rūšiuoti, apdoroti ir suskirstyti į kategorijas ir kaip šios kategorijos gali skatinti diskriminaciją, remiantis tam tikromis prielaidomis apie lytį ir rasę. Tyrėjai taip pat tvirtina, kad žmogiškųjų išteklių specialistai turėtų pabandyti suprasti, kaip veikia AI įdarbinimo įrankiai ir kokie galimi jų apribojimai.

Stebinantis faktas

Europos Sąjunga savo naujajame darbe AI pagrįstą samdymo programinę įrangą ir veiklos vertinimo įrankius priskyrė „didelės rizikos“. projektas dirbtinio intelekto teisinė sistema, o tai reiškia, kad priemonės būtų labiau tikrinamos ir turėtų atitikti tam tikrus atitikties reikalavimus.

Papildoma literatūra

DC nori vadovauti kovai su AI šališkumu („Axios“)

Šaltinis: https://www.forbes.com/sites/madelinehalpert/2022/10/09/ai-powered-job-recruitment-tools-may-not-improve-hiring-diversity-experts-argue/