3 priežastys, dėl kurių jūsų organizacijai reikės išorinių algoritmų vertintojų

Satta Sarmah-Hightower

Verslo lyderiai iš dirbtinio intelekto (DI) išspaudžia visą įmanomą vertę. 2021 m. atliktas KPMG tyrimas nustato Dauguma vyriausybės, pramonės gamybos, finansinių paslaugų, mažmeninės prekybos, gyvosios gamtos mokslų ir sveikatos priežiūros verslo lyderių teigia, kad dirbtinis intelektas jų organizacijose veikia bent vidutiniškai.. Tyrime taip pat nustatyta, kad pusė respondentų teigia, kad jų organizacija, reaguodama į Covid-19 pandemiją, paspartino dirbtinio intelekto pritaikymą. Organizacijose, kuriose buvo pritaikytas dirbtinis intelektas, mažiausiai pusė teigia, kad technologija pranoko lūkesčius.

Dirbtinio intelekto algoritmai vis labiau yra atsakingi už įvairias šiandienines sąveikas ir naujoves – pradedant suasmenintais produkto rekomendacijos ir klientų aptarnavimas patirtis bankams skolinimo sprendimai ir net policijos atsakas.

Tačiau nepaisant visų teikiamų privalumų, dirbtinio intelekto algoritmai kelia didelę riziką, jei nėra veiksmingai stebimi ir neįvertinami dėl atsparumo, sąžiningumo, paaiškinamumo ir vientisumo. Siekiant padėti verslo lyderiams stebėti ir vertinti AI, pirmiau nurodytas tyrimas rodo, kad a vis daugiau verslo lyderių nori, kad vyriausybė reguliuotų dirbtinį intelektą, kad organizacijos galėtų investuoti į tinkamas technologijas ir verslo procesus. Norint gauti reikiamą pagalbą ir priežiūrą, protinga atsižvelgti į išorinius vertinimus, kuriuos siūlo paslaugų teikėjas, turintis tokių paslaugų teikimo patirties. Štai trys priežastys, kodėl.

1. Algoritmai yra „juodosios dėžės“

Dirbtinio intelekto algoritmai, kurie mokosi iš duomenų, kad išspręstų problemas ir optimizuotų užduotis, daro sistemas išmanesnes, todėl jos gali rinkti ir generuoti įžvalgas daug greičiau, nei kada nors galėtų žmonės.

Tačiau kai kurios suinteresuotosios šalys mano, kad šie algoritmai yra „juodosios dėžės“, – aiškina Drew Rosen, KPMG, pirmaujančios profesionalių paslaugų įmonės, audito vykdomasis direktorius. Tiksliau, tam tikros suinteresuotosios šalys gali nesuprasti, kaip algoritmas priėmė tam tikrą sprendimą, todėl gali būti netikri to sprendimo teisingumu ar tikslumu.

„Rezultatai, gauti iš algoritmo, gali būti linkę į šališkumą ir klaidingą rezultatų interpretavimą“, - sako Rosenas. „Tai taip pat gali sukelti tam tikrą riziką subjektui, nes jie naudoja tuos rezultatus ir dalijasi [jais] su visuomene ir suinteresuotosiomis šalimis.

Pavyzdžiui, algoritmas, kuris naudoja klaidingus duomenis, geriausiu atveju yra neveiksmingas, o blogiausiu – žalingas. Kaip tai gali atrodyti praktiškai? Apsvarstykite AI pagrįstą pokalbių robotą, kuris vartotojams pateikia neteisingą paskyros informaciją, arba automatinį kalbos vertimo įrankį, kuris netiksliai verčia tekstą. Abu atvejai gali sukelti rimtų klaidų arba klaidingų interpretacijų valdžios subjektams ar įmonėms, taip pat sudedamosioms dalims ir klientams, kurie remiasi tų algoritmų priimtais sprendimais.

Kitas „juodosios dėžės“ problemos veiksnys yra tada, kai į AI modelių kūrimą įsiskverbia būdingas šališkumas, galintis sukelti šališką sprendimų priėmimą. Pavyzdžiui, kredito skolintojai vis dažniau naudoja dirbtinį intelektą, norėdami numatyti potencialių skolininkų kreditingumą, kad galėtų priimti sprendimus dėl skolinimo. Tačiau rizika gali kilti, kai į AI įvedami pagrindiniai duomenys, pvz., potencialaus skolininko kredito balas, turi esminę klaidą, todėl tiems asmenims buvo atsisakyta suteikti paskolas.

Tai pabrėžia, kad reikia išorinio vertintojo, kuris galėtų būti nešališkas vertintojas ir, remdamasis priimtais kriterijais, tiksliai įvertintų istorinių duomenų ir prielaidų, kuriomis grindžiamas algoritmas, tinkamumą ir patikimumą.

2. Suinteresuotosios šalys ir reguliavimo institucijos reikalauja skaidrumo

2022 m. nebuvo dabartinių ataskaitų teikimo reikalavimų atsakingam AI. Tačiau Rosenas sako: „Kaip ir valdymo organai įvedė ESG [aplinkos, socialinį ir valdymo] reglamentą. ataskaita apie tam tikrus ESG rodiklius, tai tik laiko klausimas, kada pamatysime papildomus ataskaitų teikimo reikalavimus atsakingam AI.

Tiesą sakant, nuo 1 m. sausio 2023 d. Niujorke Vietos įstatymas 144 reikalaujama, kad prieš naudojant automatizuotą darbo sprendimų įrankį būtų atliktas šališkumo auditas.

Ir federaliniu lygiu, 2020 m. Nacionalinis dirbtinio intelekto iniciatyvos aktas– kuri remiasi a 2019 metų vykdomasis įsakymas— daugiausia dėmesio skiriama AI techniniams standartams ir gairėms. Be to, Algoritminės atskaitomybės įstatymas gali reikėti atlikti automatizuotų sprendimų sistemų ir išplėstinių kritinių sprendimų procesų poveikio vertinimą. Ir užsienyje, Dirbtinio intelekto įstatymas buvo pasiūlyta, siūlanti išsamią reguliavimo sistemą su konkrečiais AI saugos, atitikties, valdymo ir patikimumo tikslais.

Dėl šių pokyčių organizacijos atsiduria po valdymo mikroskopu. Algoritmų vertintojas gali pateikti tokias ataskaitas, kuriose atsižvelgiama į reguliavimo reikalavimus ir padidinamas suinteresuotųjų šalių skaidrumas, kartu išvengiant rizikos, kad suinteresuotosios šalys neteisingai interpretuos klaidinami pagal vertinimo rezultatus.

3. Įmonės gauna naudos iš ilgalaikės rizikos valdymo

Steve'as Camara, KPMG technologijų užtikrinimo praktikos partneris, prognozuoja, kad investicijos į dirbtinį intelektą ir toliau augs, nes subjektai tęs automatizuodami procesus, kurdami naujoves, gerinančias klientų patirtį ir paskirstydami dirbtinio intelekto plėtrą tarp verslo funkcijų. Kad organizacijos išliktų konkurencingos ir pelningos, organizacijoms reikės veiksmingų kontrolės priemonių, kurios ne tik pašalintų tiesioginius AI trūkumus, bet ir sumažintų bet kokią ilgalaikę riziką, susijusią su dirbtiniu intelektu grindžiama verslo veikla.

Čia išorės vertintojai įsitraukia kaip patikimi, išmanūs šaltiniai. Kadangi organizacijos vis labiau priima dirbtinio intelekto vientisumą kaip verslo skatinimo priemonę, partnerystė gali tapti ne tokia ad hoc paslauga, o labiau nuosekliu bendradarbiavimu, aiškina Camara.

„Mes matome kelią į priekį, kai reikės nuolat palaikyti ryšį tarp organizacijų, kurios nuolat kuria ir taiko dirbtinį intelektą, ir objektyvaus išorės vertintojo“, – sako jis.

Žvilgsnis į tai, kas bus toliau

Ateityje organizacijos gali naudoti išorinius vertinimus labiau cikliškai, pavyzdžiui, kurdamos naujus modelius, gaudamos naujus duomenų šaltinius, integruodamos trečiųjų šalių tiekėjų sprendimus arba vykdydamos naujus atitikties reikalavimus.

Kai nustatomi papildomi reguliavimo ir atitikties reikalavimai, išorės vertintojai gali teikti paslaugas, kad būtų galima tiesiogiai įvertinti, kaip organizacija įdiegė ar naudojo dirbtinį intelektą pagal tuos reikalavimus. Tada šie vertintojai galėtų geriausiai dalytis vertinimo rezultatais aiškiai ir nuosekliai.

Norėdama pasinaudoti technologijomis ir apsisaugoti nuo jos apribojimų, organizacija turi ieškoti išorės vertintojų, kurie pateiktų ataskaitas, kuriomis ji galėtų pasikliauti, kad parodytų didesnį skaidrumą diegdama algoritmus. Iš ten tiek organizacija, tiek suinteresuotosios šalys gali geriau suprasti AI galią ir jos apribojimus.

Šaltinis: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/