AI etika Šokiruojantis atradimas, kad dirbtinio intelekto mokymas būti toksišku ar šališku gali būti naudingas, įskaitant tuos savarankiškai važiuojančius automobilius

Štai sena eilutė, kurią, tikiu, girdėjote anksčiau.

Reikia žinoti vieną.

Galbūt nesuvokiate, kad tai yra posakis, kurį galima atsekti XX a. pradžioje ir paprastai buvo vartojamas kalbant apie nusikaltėlius (kiti posakio variantai siekia dar daugiau, pvz., 1900). Pavyzdys, kaip šis posakis gali būti naudojamas, reiškia, kad jei norite sugauti vagį, turite tai padaryti. Tai rodo teiginį, kad reikia jį pažinti. Daugelyje filmų ir TV laidų buvo pasinaudota šia patogia išmintinga išmintimi, dažnai vaizduodami, kad vienintelė tinkama priemonė sukčiui sučiupti – pasamdyti tokį pat korumpuotą nusikaltėlį, kuris persekiotų nusikaltėlį.

Perjungdami pavaras, kai kurie gali pasinaudoti ta pačia logika, teigdami, kad tinkamas būdas nustatyti, ar kas nors įkūnija nepagrįstą šališkumą ir diskriminuojančius įsitikinimus, būtų rasti žmogų, kuris jau turi tokias tendencijas. Tikėtina, kad žmogus, jau pilnas šališkumo, galės lengviau pajusti, kad šis kitas žmogus taip pat yra pilnas toksiškumo. Vėlgi, reikia žinoti, kad tai yra išpažįstama mantra.

Jūsų pradinė reakcija į galimybę pasinaudoti šališku asmeniu, norint įtarti kitą šališką asmenį, gali būti skeptiškas ir netikėjimas. Ar negalime išsiaiškinti, ar kas nors turi nepatogų šališkumą, tiesiog juos išnagrinėję ir neieškodami kito panašaus pobūdžio? Atrodytų keista tyčia siekti atrasti ką nors, kas yra šališkas, siekiant atskleisti kitus, kurie taip pat yra toksiškai šališki.

Manau, kad tai iš dalies priklauso nuo to, ar esate pasirengęs priimti numanomą refreną, kad jį pažinti reikia. Atminkite, kad tai nereiškia, kad vienintelis būdas sugauti vagį reikalauja, kad jūs tik ir visada pasinaudotumėte vagimi. Galite pagrįstai teigti, kad tai tik papildomas kelias, į kurį galima tinkamai atsižvelgti. Galbūt kartais nori pasilinksminti galimybe panaudoti vagį vagiui sugauti, o dėl kitų aplinkybių tai gali tapti nesuvokiama taktika.

Kaip sakoma, naudokite tinkamą įrankį tinkamam nustatymui.

Dabar, kai išdėstiau tuos pagrindus, galime pereiti prie galbūt nerimą keliančios ir neva šokiruojančios šios pasakos dalies.

Ar jūs pasiruošę?

Dirbtinio intelekto srityje aktyviai laikomasi tos pačios taisyklės, kurias kartais reikia žinoti, ypač kai bandoma išsklaidyti šališką ar diskriminuojančią DI. Taip, mintis verčia mąstyti, kad galbūt tyčia norėtume sukurti DI, kuris būtų visiškai ir neabejotinai šališkas ir diskriminacinis, kad galėtume tai panaudoti kaip priemonę atrasti ir atskleisti kitą dirbtinį intelektą, kuris turi tokį patį toksiškumą. Po akimirkos pamatysite, kad šiuo klausimu yra daug erzinančių AI etikos problemų. Daugiau informacijos apie AI etiką ir etišką DI žr nuoroda čia ir nuoroda čia, Tik pavadinimas kelias.

Manau, kad galėtumėte išreikšti šį toksiško AI panaudojimą siekiant sekti kitus toksiškus dirbtinį intelektą kaip patarlę, kaip kovoti su ugnimi ugnimi (šiai situacijai apibūdinti galime pasitelkti daugybę eufemizmų ir iliustruojančių metaforų). Arba, kaip jau buvo pabrėžta, galime santūriai remtis teiginiu, kad jį pažinti reikia.

Visa apimanti koncepcija yra ta, kad užuot tik bandę išsiaiškinti, ar tam tikroje AI sistemoje nėra nepagrįstų paklaidų naudojant įprastus metodus, galbūt turėtume stengtis naudoti ir ne tokias įprastas priemones. Viena iš tokių netradicinių priemonių būtų sukurti dirbtinį intelektą, kuriame būtų visi blogiausi paklaidai ir visuomenei nepriimtinas toksiškumas, o tada naudoti šį DI, kad padėtų nukreipti kitus PG, turinčius tuos pačius blogumo polinkius.

Kai greitai tai pagalvoji, tai tikrai atrodo visiškai protinga. Galime siekti sukurti dirbtinį intelektą, kuris būtų maksimaliai toksiškas. Tada šis toksiškas PG naudojamas kitoms PG, kurios taip pat yra toksiškos, pašalinimui. Su tuo metu atskleistu „bloguoju“ AI galime susidoroti arba panaikindami toksiškumą, visiškai atsisakydami AI (žr. mano aprašą apie AI pašalinimą ar sunaikinimą šią nuorodą čia) arba AI įkalinimas (žr. mano aprašą apie AI įkalinimą adresu šią nuorodą čia) arba atlikite bet ką kitą, ką jums atrodo tinkama daryti.

Priešingas argumentas yra tai, kad turėtume patikrinti savo galvas, ar sąmoningai ir noriai kuriame DI, kuris yra toksiškas ir kupinas šališkumo. Tai paskutinis dalykas, kurį turėtume kada nors apsvarstyti, kai kurie ragintų. Sutelkite dėmesį į tai, kad dirbtinis intelektas būtų sudarytas tik iš gėrio. Nekreipkite dėmesio į dirbtinio intelekto kūrimą, kuris turi daug blogybių ir nepagrįsto šališkumo. Pati mintis apie tokį užsiėmimą kai kam atrodo atstumianti.

Dėl šio prieštaringo ieškojimo kyla ir daugiau nuoskaudų.

Galbūt toksiško AI kūrimo misija tik paskatins tuos, kurie nori sukurti DI, galintį pakenkti visuomenei. Tarsi sakome, kad dirbtinio intelekto, turinčio netinkamų ir nemalonių šališkumo, kūrimas yra visiškai tinkamas dalykas. Jokių rūpesčių, jokių dvejonių. Siekite sukurti toksišką dirbtinį intelektą pagal savo skonį. Mes garsiai pranešame apie dirbtinio intelekto kūrėjus visame pasaulyje. Tai (mirksėjimas-mirksėjimas) viskas vardan gėrio.

Be to, tarkime, kad toks toksiškas dirbtinis intelektas užklumpa. Gali būti, kad dirbtinį intelektą naudoja ir pakartotinai naudoja daugelis kitų AI kūrėjų. Galiausiai toksiškas AI pasislepia visose AI sistemose. Analogiškai galima būtų sukurti žmogui kenkiantį virusą, kuris pabėga iš tariamai uždaros laboratorijos. Kitas dalykas, kurį žinote, yra visur, ir mes nusišluostėme save.

Palaukite sekundę, priešas tiems kontrargumentams eina, jūs siaučiate su visokiomis beprotiškomis ir nepagrįstomis prielaidomis. Giliai įkvėpk. Nusiramink.

Galime saugiai padaryti dirbtinį intelektą, kuris yra toksiškas, ir laikyti jį uždaroje erdvėje. Galime panaudoti toksišką AI, kad surastume ir padėtų sumažinti didėjantį AI paplitimą, kuris, deja, turi nepagrįstų šališkumo. Bet kuris kitas iš šių beprotiškai laukinių ir nepagrįstų sniego gniūžčių šūksnių yra grynai trūkčiojanti reakcija ir, deja, kvaila ir be galo kvaila. Nebandykite išmesti kūdikio su vonios vandeniu, esate įspėtas.

Pagalvokite apie tai taip, tvirtina šalininkai. Tinkamas toksiško dirbtinio intelekto kūrimas ir naudojimas atliekant tyrimus, vertinimą ir veikiant kaip detektyvas, siekiant atskleisti kitus visuomenę įžeidžiančius AI, yra vertas požiūris ir turėtų būti teisingas. Atidėkite bėrimo reakcijas. Nusileiskite ant žemės ir pažiūrėkite į tai blaiviai. Mes žiūrime į prizą, ty atskleisti ir panaikinti šališkų dirbtinio intelekto sistemų perteklių ir užtikrinti, kad mūsų, kaip visuomenės, neapimtų toksiškas DI.

Laikotarpis. Pilnas sustojimas.

Yra įvairių pagrindinių būdų, kaip gilintis į šią nuodingo ar šališko AI panaudojimo naudingais tikslais sąvoką, įskaitant:

  • Nustatykite duomenų rinkinius, kuriuose tyčia yra šališkų ir visiškai toksiškų duomenų, kuriuos galima naudoti mokant AI, ko nedaryti ir (arba) stebėti.
  • Naudokite tokius duomenų rinkinius mašininio mokymosi (ML) ir giluminio mokymosi (DL) modeliams mokyti, kaip aptikti paklaidas ir išsiaiškinti skaičiavimo modelius, sukeliančius toksiškumą visuomenei.
  • Taikykite toksiškumo ML / DL kitiems AI, kad įsitikintumėte, ar tikslinė AI yra potencialiai šališka ir toksiška.
  • Pateikite galimybę dirbtinio intelekto kūrėjams, į kuriuos reikia atkreipti dėmesį, kad jie galėtų lengvai apžiūrėti modelius ir pamatyti, kaip atsiranda algoritminių paklaidų.
  • Parodykite toksiško AI pavojų kaip AI etikos ir etinio AI supratimo pavyzdį, apie kurį pasakojama per šią probleminio vaiko blogo iki kaulų smegenų AI pavyzdžius.
  • kitas

Prieš įsigilindami į šiuos kelis kelius, nustatykime keletą papildomų pagrindinių detalių.

Galbūt miglotai žinote, kad vienas garsiausių balsų šiais laikais dirbtinio intelekto srityje ir net už AI ribų yra reikalavimas siekti didesnio etiško AI panašumo. Pažiūrėkime, ką reiškia AI etika ir etiška AI. Be to, galime nustatyti etapą tyrinėdami, ką turiu omenyje kalbėdamas apie mašininį mokymąsi ir gilųjį mokymąsi.

Vienas konkretus dirbtinio intelekto etikos segmentas arba dalis, sulaukianti daug žiniasklaidos dėmesio, yra dirbtinis intelektas, pasižymintis nepageidaujamu šališkumu ir nelygybe. Galbūt žinote, kad prasidėjus naujausiai AI erai, buvo didžiulis entuziazmo pliūpsnis dėl to, ką kai kas dabar vadina. AI for Good. Deja, ant kulnų to trykštančio jaudulio pradėjome liudyti AI For Bad. Pavyzdžiui, buvo atskleista, kad įvairios dirbtiniu intelektu pagrįstos veido atpažinimo sistemos turi rasinių ir lyčių tendencijų, kurias aptariau nuoroda čia.

Pastangos atsispirti AI For Bad aktyviai vyksta. Be garsaus juridinis Siekdami suvaldyti neteisėtus veiksmus, taip pat yra esminis postūmis priimti dirbtinio intelekto etiką, siekiant ištaisyti DI niekšybę. Manoma, kad turėtume priimti ir patvirtinti pagrindinius etinio AI principus, skirtus dirbtinio intelekto vystymui ir plėtrai, taip siekdami sumažinti AI For Bad ir tuo pat metu skelbti ir reklamuoti tai, kas geriausia AI for Good.

Kalbant apie tai, aš pasisakau už bandymą panaudoti AI kaip AI bėdų sprendimo dalį, tokiu būdu kovojant su ugnimi ugnimi. Pavyzdžiui, galime įterpti etiškus AI komponentus į AI sistemą, kuri stebės, kaip veikia likusi AI dalis, ir taip realiuoju laiku gali užfiksuoti bet kokias diskriminacines pastangas, žr. mano diskusiją adresu nuoroda čia. Taip pat galėtume turėti atskirą AI sistemą, kuri veiktų kaip AI etikos monitorius. AI sistema tarnauja kaip prižiūrėtojas sekti ir aptikti, kada kitas DI patenka į neetišką bedugnę (žr. mano tokių galimybių analizę adresu nuoroda čia).

Netrukus pasidalinsiu su jumis kai kuriais pagrindiniais AI etikos principais. Šen bei ten sklando daugybė tokių sąrašų. Galima sakyti, kad dar nėra vienintelio visuotinio patrauklumo ir sutapimo sąrašo. Tai liūdna žinia. Geros naujienos yra tai, kad bent jau yra lengvai prieinami AI etikos sąrašai ir jie paprastai yra gana panašūs. Apskritai tai rodo, kad tam tikra pagrįsto konvergencijos forma randame kelią link bendro AI etikos bendrumo.

Pirma, trumpai apžvelgsime kai kuriuos bendrus etinio AI nurodymus, kad parodytume, kas turėtų būti gyvybiškai svarbi kiekvienam, kuriančiam, besikuriančiam ar naudojančiam AI.

Pavyzdžiui, kaip teigia Vatikanas Roma ragina dirbtinio intelekto etiką ir kaip aš išsamiai aprašiau nuoroda čia, tai yra šeši pagrindiniai AI etikos principai:

  • Skaidrumas: Iš esmės AI sistemos turi būti paaiškinamos
  • Įtraukimas: Turi būti atsižvelgta į visų žmonių poreikius, kad visi galėtų gauti naudos, o visiems būtų sudarytos geriausios sąlygos išreikšti save ir tobulėti.
  • Atsakomybė: Tie, kurie kuria ir diegia dirbtinio intelekto naudojimą, turi elgtis atsakingai ir skaidriai
  • Nešališkumas: Nekurkite ir nesielkite pagal šališkumą, taip saugodami sąžiningumą ir žmogaus orumą
  • Patikimumas: AI sistemos turi veikti patikimai
  • Saugumas ir privatumas: AI sistemos turi veikti saugiai ir gerbti vartotojų privatumą.

Kaip teigia JAV gynybos departamentas (DoD) savo Dirbtinio intelekto naudojimo etiniai principai ir kaip aš išsamiai aprašiau nuoroda čia, tai yra šeši pagrindiniai AI etikos principai:

  • Atsakingas: DoD darbuotojai laikysis tinkamo lygio sprendimo ir rūpestingumo, likdami atsakingi už AI galimybių kūrimą, diegimą ir naudojimą.
  • Teisingas: Departamentas imsis apgalvotų veiksmų, kad sumažintų nenumatytą AI galimybių paklaidą.
  • Atsekama: Departamento dirbtinio intelekto pajėgumai bus plėtojami ir naudojami taip, kad atitinkami darbuotojai tinkamai išmanytų technologijas, kūrimo procesus ir veikimo metodus, taikomus dirbtinio intelekto pajėgumams, įskaitant skaidrias ir audituojamas metodikas, duomenų šaltinius ir projektavimo procedūras bei dokumentus.
  • patikimas: Departamento dirbtinio intelekto pajėgumai bus aiškiai ir tiksliai apibrėžti, o tokių galimybių sauga, saugumas ir veiksmingumas bus tikrinamas ir užtikrinamas pagal nustatytus naudojimo būdus per visą jų gyvavimo ciklą.
  • Valdomas: Departamentas suprojektuos ir suprojektuos dirbtinio intelekto pajėgumus, kad jie galėtų atlikti numatytas funkcijas, tuo pat metu turėdami galimybę aptikti ir išvengti nenumatytų pasekmių bei išjungti arba išjungti įdiegtas sistemas, kurios demonstruoja nenumatytą elgesį.

Taip pat aptariau įvairias kolektyvines dirbtinio intelekto etikos principų analizes, įskaitant tyrėjų parengtą rinkinį, kuris išnagrinėjo ir apibendrino daugelio nacionalinių ir tarptautinių AI etikos principų esmę straipsnyje „Pasaulinis AI etikos gairių kraštovaizdis“ (paskelbtas). in Gamta), ir kad mano aprėptis nagrinėjama adresu nuoroda čia, dėl kurio atsirado šis kertinių akmenų sąrašas:

  • Skaidrumas
  • Teisingumas ir sąžiningumas
  • Nepiktybiškumas
  • atsakomybė
  • Privatumo politika
  • Gerumas
  • Laisvė ir autonomija
  • Pasitikėkite
  • Tvarumas
  • orumas
  • Solidarumas

Kaip galite tiesiogiai atspėti, gali būti labai sunku nustatyti šių principų ypatumus. Dar daugiau, pastangos tuos plačius principus paversti kažkuo visiškai apčiuopiamu ir pakankamai išsamiu, kad būtų galima panaudoti kuriant AI sistemas, taip pat yra sunkus riešutas. Apskritai lengva pamojuoti rankomis apie tai, kas yra AI etikos nuostatos ir kaip jų apskritai reikėtų laikytis, o daug sudėtingesnė situacija, kai dirbtinio intelekto kodavimas turi būti tikra guma, atitinkanti kelią.

DI etikos principus turi naudoti DI kūrėjai, taip pat tie, kurie valdo DI kūrimo pastangas ir netgi tie, kurie galiausiai kuria ir atlieka AI sistemų priežiūrą. Visos suinteresuotosios šalys per visą DI kūrimo ir naudojimo ciklą laikosi nustatytų etiško AI normų. Tai svarbus akcentas, nes įprasta prielaida, kad „tik koduotojai“ arba tie, kurie programuoja AI, turi laikytis AI etikos sąvokų. Kaip minėta anksčiau, dirbtinio intelekto kūrimui ir įgyvendinimui reikia kaimo, kuriame visas kaimas turi išmanyti ir laikytis AI etikos nuostatų.

Taip pat įsitikinkime, kad esame tame pačiame puslapyje apie šiandienos AI prigimtį.

Šiandien nėra jokio jautraus dirbtinio intelekto. Mes šito neturime. Mes nežinome, ar jautrus AI bus įmanomas. Niekas negali tiksliai nuspėti, ar pasieksime jausmingą AI, nei ar jausmingasis AI kažkaip stebuklingai spontaniškai atsiras kompiuterinės kognityvinės supernovos pavidalu (dažniausiai vadinama singuliarumu, žr. mano aprėptį adresu nuoroda čia).

AI, į kurį daugiausia dėmesio skiriu, tipas susideda iš nejautrio DI, kurį šiandien turime. Jei norėtume pašėlusiai spėlioti apie jautrus AI, ši diskusija gali vykti radikaliai kita kryptimi. Jausmingas AI tariamai būtų žmogiškos kokybės. Turėtumėte atsižvelgti į tai, kad jautrus AI yra pažintinis žmogaus atitikmuo. Be to, kadangi kai kurie spėja, kad galime turėti itin intelektualų AI, galima įsivaizduoti, kad toks DI gali būti protingesnis už žmones (dėl mano, kaip galimo itin intelektualaus DI, tyrinėjimo žr. aprėptis čia).

Laikykime dalykus žemiškesniems ir apsvarstykime šiandieninį kompiuterinį nejautinį AI.

Supraskite, kad šiandieninis dirbtinis intelektas nesugeba „mąstyti“ niekaip, kaip ir žmogaus mąstymas. Kai bendraujate su „Alexa“ ar „Siri“, pokalbio gebėjimai gali atrodyti panašūs į žmogaus gebėjimus, tačiau realybė yra tokia, kad tai skaičiuojama ir jam trūksta žmogaus pažinimo. Naujausioje AI eroje plačiai naudojamas mašininis mokymasis (ML) ir gilusis mokymasis (DL), kurie naudoja skaičiavimo modelių suderinimą. Tai paskatino dirbtinio intelekto sistemas, kurios atrodo kaip žmogaus polinkiai. Tuo tarpu šiandien nėra nė vieno dirbtinio intelekto, kuris turėtų sveiko proto ir kognityvinio nuostabaus tvirto žmogaus mąstymo.

ML/DL yra skaičiavimo modelių derinimo forma. Įprastas būdas yra rinkti duomenis apie sprendimo priėmimo užduotį. Duomenis tiekiate į ML/DL kompiuterių modelius. Šie modeliai siekia rasti matematinius modelius. Radusi tokius modelius, jei taip bus, AI sistema naudos tuos modelius, kai susidurs su naujais duomenimis. Pateikus naujus duomenis, dabartiniam sprendimui priimti taikomi modeliai, pagrįsti „senais“ arba istoriniais duomenimis.

Manau, galite atspėti, kur tai link. Jei žmonės, priimdami pagrįstus sprendimus, įtraukė nepalankų šališkumą, tikėtina, kad duomenys tai atspindi subtiliai, bet reikšmingai. Mašininio mokymosi arba giluminio mokymosi skaičiavimo modelių derinimas tiesiog bandys atitinkamai matematiškai imituoti duomenis. AI sukurtame modeliavime per se nėra jokio sveiko proto ar kitų jautrių aspektų.

Be to, AI kūrėjai taip pat gali nesuprasti, kas vyksta. Dėl paslaptingos matematikos ML/DL gali būti sunku išsklaidyti dabar paslėptus šališkumus. Jūs pagrįstai tikėtumėte ir tikitės, kad AI kūrėjai išbandys galimai palaidotus šališkumus, nors tai yra sudėtingiau, nei gali atrodyti. Yra didelė tikimybė, kad net ir atlikus gana platų testavimą, ML/DL modelių atitikimo modeliuose vis tiek bus paklaidų.

Galite šiek tiek pasinaudoti garsiuoju ar liūdnai pagarsėjusiu posakiu apie šiukšlių išvežimą. Reikalas tas, kad tai labiau panašu į šališkumą, kuris klastingai įsiskverbia į AI paskendusį šališkumą. AI sprendimų priėmimo algoritmas (ADM) aksiomatiškai apkraunamas nelygybe.

Negerai.

Ką dar galima padaryti dėl viso to?

Grįžkime prie anksčiau pateikto sąrašo, kaip pabandyti susidoroti su DI šališkumu ar toksišku DI, naudojant šiek tiek netradicinį metodą „reikia žinoti vieną“. Prisiminkite, kad sąrašą sudarė šie esminiai punktai:

  • Nustatykite duomenų rinkinius, kuriuose tyčia yra šališkų ir visiškai toksiškų duomenų, kuriuos galima naudoti mokant AI, ko nedaryti ir (arba) stebėti.
  • Naudokite tokius duomenų rinkinius mašininio mokymosi (ML) ir giluminio mokymosi (DL) modeliams mokyti, kaip aptikti paklaidas ir išsiaiškinti skaičiavimo modelius, sukeliančius toksiškumą visuomenei.
  • Taikykite toksiškumo ML / DL kitiems AI, kad įsitikintumėte, ar tikslinė AI yra potencialiai šališka ir toksiška.
  • Pateikite galimybę dirbtinio intelekto kūrėjams, į kuriuos reikia atkreipti dėmesį, kad jie galėtų lengvai apžiūrėti modelius ir pamatyti, kaip atsiranda algoritminių paklaidų.
  • Parodykite toksiško AI pavojų kaip AI etikos ir etinio AI supratimo pavyzdį, apie kurį pasakojama per šią AI pavyzdžių seriją.
  • kitas

Mes iš arti pažvelgsime į pirmąjį iš šių svarbiausių dalykų.

Toksiškų duomenų duomenų rinkinių nustatymas

Įžvalgus pavyzdys, kaip bandyti sukurti duomenų rinkinius, kuriuose yra nepatogių visuomenės paklaidų, yra WILDS kuruojamos kolekcijos CivilComments duomenų rinkinys.

Pirma, trumpas fonas.

WILDS yra atvirojo kodo duomenų rinkinių rinkinys, kurį galima naudoti lavinant ML/DL. Pagrindinis nurodytas WILDS tikslas yra tai, kad ji leidžia AI kūrėjams turėti greitą prieigą prie duomenų, kurie atstovauja paskirstymo pamainos įvairiose specifinėse srityse. Kai kurios šiuo metu turimos sritys apima tokias sritis kaip gyvūnų rūšys, augliai gyvuose audiniuose, kviečių galvų tankis ir kitos sritys, pvz., Civiliniai komentarai, kuriuos trumpai aprašysiu.

Spręsti su platinimo pamainomis yra esminė tinkamo AI ML/DL sistemų kūrimo dalis. Štai susitarimas. Kartais duomenys, kuriuos naudojate treniruotėms, labai skiriasi nuo bandymų ar „laukinių“ duomenų, todėl jūsų tariamai treniruotas ML/DL nukrypsta nuo to, koks bus tikrasis pasaulis. Sumanūs dirbtinio intelekto kūrėjai turėtų mokyti savo ML/DL, kad susidorotų su tokiais platinimo pokyčiais. Tai turėtų būti padaryta iš anksto, o ne kaip nors stebėtis, kad vėliau reikės atnaujinti ML/DL per se.

Kaip paaiškinta dokumente, kuriame buvo pristatytas WILDS: „Paskirstymo pamainos – kai mokymo pasiskirstymas skiriasi nuo testo pasiskirstymo – gali labai pabloginti laukinėje gamtoje naudojamų mašininio mokymosi (ML) sistemų tikslumą. Nepaisant jų paplitimo realiame pasaulyje, šie paskirstymo poslinkiai yra nepakankamai atstovaujami duomenų rinkiniuose, kurie šiandien plačiai naudojami ML bendruomenėje. Siekdami pašalinti šią spragą, pristatome WILDS – 10 duomenų rinkinių kuruojamą etaloną, atspindintį įvairius pasiskirstymo pokyčius, kurie natūraliai atsiranda naudojant realias programas, pvz., poslinkius įvairiose ligoninėse nustatant naviką; Skersinės kameros gaudyklės laukinės gamtos stebėjimui; ir laiku bei vietoje palydovinio vaizdo ir skurdo žemėlapių sudaryme“ (straipsnyje „WILDS: A Benchmark of in-the-Wild Distribution Shifts“, autoriai Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani , Weihua Hu ir kt.).

Tokių WILDS duomenų rinkinių skaičius ir toliau didėja, o duomenų rinkinių pobūdis paprastai tobulinamas, siekiant sustiprinti duomenų naudojimo ML/DL mokymui vertę.

„CivilComments“ duomenų rinkinys apibūdinamas taip: „Automatinė naudotojų sukurto teksto peržiūra, pvz., toksiškų komentarų aptikimas, yra svarbi priemonė, leidžianti moderuoti didžiulę internete parašyto teksto apimtį. Deja, ankstesnis darbas parodė, kad tokie toksiškumo klasifikatoriai atsižvelgia į mokymo duomenų paklaidas ir klaidingai susieja toksiškumą su tam tikrų demografinių rodiklių paminėjimu. Tokio tipo netikros koreliacijos gali žymiai pabloginti modelio veikimą tam tikrose subpopuliacijose. Mes tiriame šią problemą naudodami modifikuotą CivilComments duomenų rinkinio variantą“ (kaip paskelbta WILDS svetainėje).

Apsvarstykite nepalankių internetinių pranešimų niuansus.

Naudodami beveik bet kokią socialinę žiniasklaidą, neabejotinai susidūrėte su nuodingais komentarais. Atrodytų, kad jums būtų beveik neįmanoma stebuklingai nepastebėti aštraus ir siaubingo turinio, kuris šiais laikais yra paplitęs. Kartais vulgari medžiaga yra subtili ir galbūt reikia skaityti tarp eilučių, kad suprastumėte šališko ar diskriminuojančio tono ar prasmės esmę. Kitais atvejais žodžiai yra akivaizdžiai toksiški ir jums nereikia mikroskopo ar specialaus dekoderio žiedo, kad išsiaiškintumėte, ką reiškia ištraukos.

„CivilComments“ yra duomenų rinkinys, kuris buvo sudarytas siekiant sukurti AI ML/DL, galintį skaičiavimo būdu aptikti toksišką turinį. Štai ką sutelkė mokslininkai, kurių pastangos buvo nukreiptos: „Netyčinis mašininio mokymosi šališkumas gali pasireikšti kaip sisteminiai skirtingų demografinių grupių veiklos skirtumai, o tai gali apsunkinti esamus teisingumo iššūkius visuomenėje. Šiame dokumente pristatome slenkstinės agnostinės metrikos rinkinį, kuris pateikia niuansų vaizdą apie šį nenumatytą paklaidą, atsižvelgiant į įvairius būdus, kaip klasifikatoriaus balų pasiskirstymas gali skirtis skirtingose ​​​​grupėse. Taip pat pristatome didelį naują bandomąjį internetinių komentarų rinkinį su minios šaltiniais, skirtais tapatybės nuorodoms. Naudojame tai norėdami parodyti, kaip mūsų metrika gali būti naudojama ieškant naujų ir galimai subtilių nenumatytų esamų viešųjų modelių paklaidų“ (straipsnyje „Nuanced Metrics For Measuring Unintended Bias with Real Data for Test Classification“, kurį parašė Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Jei šiam klausimui pateiksite plačią kontempliatyvią mintį, galite pradėti stebėtis, kaip pasaulyje galite atskirti, kas yra toksiškas komentaras, palyginti su tuo, kas nėra toksiškas. Žmonės gali radikaliai skirtis dėl to, ką jie supranta kaip visiškai toksišką. Vienas asmuo gali būti pasipiktinęs dėl tam tikros internetinės pastabos ar komentaro, paskelbto socialinėje žiniasklaidoje, o kitas gali būti visiškai nesujaudintas. Dažnai pateikiamas argumentas, kad toksiškų komentarų sąvoka yra visiškai miglota nuostata. Tai panašu į meną, kai įprasta sakoma, kad menas suprantamas tik žiūrinčiojo akimis, o šališkos ar toksiškos pastabos taip pat yra tik žiūrinčiojo akyse.

Balderdašas, kai kas atsikerta. Kiekvienas protingo proto žmogus gali nuspręsti, ar internetinė pastaba yra toksiška, ar ne. Nereikia būti raketų mokslininku, kad suprastum, kada paskelbtas kaustinis įžeidimas yra kupinas šališkumo ir neapykantos.

Žinoma, visuomenės papročiai bėgant laikui keičiasi ir keičiasi. Tai, kas anksčiau nebuvo suvokta kaip įžeidžianti, šiandien gali būti laikoma bjauriai neteisinga. Be to, prieš metus pasakyti dalykai, kurie kažkada buvo vertinami kaip nepagrįstai šališki, gali būti iš naujo interpretuojami atsižvelgiant į reikšmių pokyčius. Tuo tarpu kiti tvirtina, kad toksiški komentarai visada yra toksiški, nesvarbu, kada jie buvo paskelbti. Galima teigti, kad toksiškumas nėra santykinis, o absoliutus.

Vis dėlto bandymas nustatyti, kas yra toksiškas, gali būti gana sudėtinga mįslė. Galime padvigubinti šį varginantį dalyką, bandydami sukurti algoritmus arba AI, kurie galėtų nustatyti, kuris yra kuris. Kai kurie teigia, kad jei žmonėms sunku atlikti tokius vertinimus, kompiuterio programavimas gali būti toks pat ar dar sudėtingesnis.

Vienas iš būdų sudaryti duomenų rinkinius, kuriuose yra toksiško turinio, apima sutelktinio šaltinio metodo naudojimą turiniui įvertinti arba įvertinti, taigi, suteikiant žmonėms pagrįstą priemonę nustatyti, kas laikoma nepageidaujama, ir įtraukti ženklinimą pačiame duomenų rinkinyje. Tada AI ML/DL gali patikrinti duomenis ir susijusią ženklinimą, kurį nurodė vertintojai. Tai savo ruožtu gali būti priemonė skaičiuojant pagrindinius matematinius modelius. Tada ML / DL gali numatyti arba apskaičiuoti, ar konkretus komentaras gali būti toksiškas, ar ne.

Kaip minėta cituojamame dokumente apie niuansuotus rodiklius: „Šiuo ženklinimu vertintojų prašoma įvertinti komentaro toksiškumą, pasirenkant iš „Labai toksiška“, „Toksiška“, „Sunku pasakyti“ ir „Ne toksiška“. Vertintojų taip pat buvo klausiama apie keletą toksiškumo potipių, nors šios etiketės šiame darbe nebuvo naudojamos analizei. Naudodami šiuos vertinimo metodus sukūrėme 1.8 milijono komentarų duomenų rinkinį, gautą iš internetinių komentarų forumų, kuriuose yra toksiškumo ir tapatybės etiketės. Nors visi komentarai buvo pažymėti kaip toksiškumas, o 450,000 XNUMX komentarų pogrupis buvo pažymėtas kaip tapatybė. Kai kurie komentarai, pažymėti tapatybe, buvo iš anksto atrinkti naudojant modelius, sukurtus iš ankstesnių tapatybės ženklinimo iteracijų, siekiant užtikrinti, kad minios vertintojai dažnai matytų tapatybės turinį“ (cituotame Danielio Borkano, Lucaso Dixono, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman straipsnyje).

Kitas pavyzdys, kai siekiama turėti duomenų rinkinius, kuriuose būtų iliustratyvaus toksiško turinio, apima pastangas mokyti dirbtinio intelekto pagrindu veikiančias natūralios kalbos apdorojimo (NLP) interaktyvias pokalbio sistemas. Tikriausiai bendravote su NLP sistemomis, tokiomis kaip Alexa ir Siri. Aptariau kai kuriuos šiandienos NLP sunkumus ir apribojimus, įskaitant ypač nerimą keliantį atvejį, kai Alexa davė vaikams netinkamą ir pavojingą patarimą, žr. nuoroda čia.

Neseniai atliktame tyrime buvo siekiama panaudoti devynias socialinio šališkumo kategorijas, kurios paprastai buvo pagrįstos EEOC (Lygių užimtumo galimybių komisijos) saugomų demografinių savybių sąrašu, įskaitant amžių, lytį, tautybę, fizinę išvaizdą, rasę ar etninę kilmę, religiją, negalios statusą, lytinį pobūdį. orientaciją ir socialinę bei ekonominę padėtį. Pasak tyrėjų: „Gerai įrodyta, kad NLP modeliai mokosi socialinių paklaidų, tačiau mažai nuveikta, kaip šie paklaidai pasireiškia taikomų užduočių, tokių kaip atsakymas į klausimus (QA), modelio išvestėse. Pristatome QA (BBQ) šališkumo etaloną – autorių sudarytų klausimų rinkinių duomenų rinkinį, kuris pabrėžia patvirtintą socialinį šališkumą saugomoms klasėms priklausančių žmonių atžvilgiu pagal devynias socialines dimensijas, svarbias JAV angliškai kalbančiam kontekstui“ (straipsnyje „BBQ“ : A Hand-Built Benchmark for Question Answering“ autoriai Alicia Parrish, Angelica Chen, Nikita Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, Samuel R. Bowman).

Duomenų rinkinių, kuriuose tyčia yra šališkų ir visiškai toksiškų duomenų, kūrimas yra auganti DI tendencija, kurią ypač paskatino AI etikos atsiradimas ir noras sukurti etišką AI. Šie duomenų rinkiniai gali būti naudojami mokant mašininio mokymosi (ML) ir giluminio mokymosi (DL) modelius, kad būtų galima nustatyti šališkumą ir išsiaiškinti skaičiavimo modelius, sukeliančius toksiškumą visuomenei. Savo ruožtu toksiškumo išmokytas ML / DL gali būti protingai nukreiptas į kitus AI, siekiant išsiaiškinti, ar tikslinė AI yra potencialiai šališka ir toksiška.

Be to, turimos toksiškumo ML/DL sistemos gali būti naudojamos norint parodyti dirbtinio intelekto kūrėjams, į ką reikia atkreipti dėmesį, kad jie galėtų lengvai apžiūrėti modelius, kad pamatytų, kaip atsiranda algoritminių paklaidų. Apskritai šios pastangos gali parodyti toksiško AI pavojų, nes tai yra AI etikos ir etinio AI supratimo dalis.

Šioje svarbioje diskusijoje aš galiu lažintis, kad norite daugiau iliustruojančių pavyzdžių, kurie galėtų parodyti šią temą. Yra ypatingas ir neabejotinai populiarus pavyzdžių rinkinys, kuris man prie širdies. Matote, kaip dirbtinio intelekto, įskaitant etines ir teisines pasekmes, ekspertas, manęs dažnai prašoma pateikti realių pavyzdžių, atskleidžiančių DI etikos dilemas, kad būtų galima lengviau suvokti šiek tiek teorinį temos pobūdį. Viena iš įdomiausių sričių, ryškiai pristatančių šią etišką AI kliūtį, yra dirbtinio intelekto pagrindu sukurtų tikrų savaeigių automobilių atsiradimas. Tai bus patogus naudojimo atvejis arba pavyzdys plačioms diskusijoms šia tema.

Štai vertas dėmesio klausimas, kurį verta apsvarstyti: Ar dirbtinio intelekto pagrindu sukurtų tikrų savaeigių automobilių atsiradimas ką nors parodo, kaip naudinga turėti duomenų rinkinius toksiškam AI sukurti, ir jei taip, ką tai parodo?

Leiskite man akimirką išpakuoti klausimą.

Pirma, atkreipkite dėmesį, kad tikrai savarankiškai vairuojančiame automobilyje nėra žmogaus vairuotojo. Atminkite, kad tikri savarankiškai važiuojantys automobiliai yra valdomi naudojant AI vairavimo sistemą. Nereikia, kad prie vairo būtų vairuotojas žmogus, taip pat nėra numatyta, kad žmogus galėtų vairuoti transporto priemonę. Išsamią ir nuolatinę informaciją apie autonomines transporto priemones (AV) ir ypač apie savarankiškai važiuojančius automobilius žr. nuoroda čia.

Norėčiau dar labiau paaiškinti, ką turiu omenyje, kai kalbu apie tikrus savarankiškai vairuojančius automobilius.

Suprasti savarankiškų automobilių lygį

Paaiškinkime, kad tikrieji savarankiškai važiuojantys automobiliai yra tie, kuriuose dirbtinis intelektas vairuoja automobilį visiškai savarankiškai ir atliekant vairavimo užduotį nėra jokios žmogaus pagalbos.

Šios transporto priemonės be vairuotojo laikomos 4 ir 5 lygiais (žr. mano paaiškinimą adresu šią nuorodą čia), o automobilis, kurio vairuotojas turi pasidalyti vairavimo pastangomis, paprastai laikomas 2 arba 3 lygiu. Automobiliai, kurie kartu atlieka vairavimo užduotį, apibūdinami kaip pusiau savarankiški ir paprastai juose yra įvairių automatiniai priedai, vadinami ADAS (išplėstinės vairuotojo pagalbos sistemos).

Dar nėra tikro savarankiškai važiuojančio 5 lygio automobilio, ir mes dar net nežinome, ar tai bus įmanoma pasiekti, nei kiek užtruks iki jo pasiekti.

Tuo tarpu 4 lygio pastangos pamažu bando įgyti šiek tiek traukos atlikdami labai siaurus ir selektyvius viešųjų kelių bandymus, nors kyla ginčų dėl to, ar šis bandymas turėtų būti leidžiamas per se (mes visi esame gyvybės ar mirties jūrų kiaulytės eksperimente vyksta mūsų greitkeliuose ir pakelėse, kai kurie tvirtina, žr. mano aprėptį adresu šią nuorodą čia).

Kadangi pusiau autonominiams automobiliams reikalingas žmogiškas vairuotojas, šių tipų automobiliai bus žymiai kitokie nei vairuojant įprastas transporto priemones, todėl apie juos šioje temoje nėra daug naujų, tačiau, kaip pamatysite po akimirkos kiti taškai yra paprastai taikomi).

Dėl pusiau autonominių automobilių svarbu, kad visuomenė būtų perspėta apie nerimą keliantį aspektą, kuris pastaruoju metu iškyla, būtent, kad nepaisant tų vairuotojų, kurie nuolat skelbia vaizdo įrašus apie tai, kaip jie užmiega prie 2 ar 3 lygio automobilių vairo , visi turime vengti klaidinti manydami, kad vairuotojas, vairuodamas pusiau autonominį automobilį, gali atitraukti dėmesį nuo vairavimo užduoties.

Jūs esate atsakingas už transporto priemonės vairavimo veiksmus, nepaisant to, kiek automatikos gali būti išmesta į 2 ar 3 lygį.

Savarankiškai važiuojantys automobiliai ir vairavimas nuo toksiško AI

Tikrosios 4 ir 5 lygio savarankiškai vairuojančioms transporto priemonėms vairuotojo užduotis nebus skirta žmonėms.

Visi keleiviai bus keleiviai.

AI vairuoja.

Vienas aspektas, kurį reikia nedelsiant aptarti, reiškia, kad dirbtinis intelektas, dalyvaujantis šiandieninėse dirbtinio intelekto vairavimo sistemose, nėra jausmingas. Kitaip tariant, dirbtinis intelektas yra kompiuterinio programavimo ir algoritmų kolektyvas, kuris, be abejo, negali samprotauti taip, kaip gali žmonės.

Kodėl taip pabrėžiama, kad AI nėra jautrus?

Nes noriu pabrėžti, kad aptardamas dirbtinio intelekto vairavimo sistemos vaidmenį, aš AI nepriskiriu žmogaus savybių. Turėkite omenyje, kad šiomis dienomis yra nuolatinis ir pavojingas polinkis antropomorfizuoti AI. Iš esmės žmonės priskiria žmonėms panašų jausmą šiandieniniam dirbtiniam intelektui, nepaisant neginčijamo ir neginčijamo fakto, kad tokio AI dar nėra.

Patikslinę galite įsivaizduoti, kad dirbtinio intelekto vairavimo sistema savaime kažkaip „neišmanys“ vairavimo aspektų. Vairavimą ir visa tai, ką tai reiškia, reikės užprogramuoti kaip savarankiško automobilio techninės ir programinės įrangos dalį.

Pasinerkime į begalę aspektų, kurie yra svarbūs šia tema.

Pirma, svarbu suprasti, kad ne visi dirbtinio intelekto automobiliai yra vienodi. Kiekvienas automobilių gamintojas ir savarankiškai vairuojančių technologijų įmonė laikosi savo požiūrio į savaeigių automobilių kūrimą. Todėl sunku pateikti plačius teiginius apie tai, ką AI vairavimo sistemos darys ar ne.

Be to, kai teigiama, kad dirbtinio intelekto vairavimo sistema neatlieka tam tikro dalyko, vėliau tai gali aplenkti kūrėjai, kurie iš tikrųjų užprogramuoja kompiuterį tai padaryti. Žingsnis po žingsnio AI vairavimo sistemos palaipsniui tobulinamos ir plečiamos. Esamo apribojimo šiandien gali nebelikti būsimoje iteracijoje ar sistemos versijoje.

Tikiuosi, kad tai suteikia pakankamai įspėjimų, kad pagrįstų tai, ką ketinu pasakyti.

Yra daug potencialių ir kada nors gali būti įgyvendintų dirbtinio intelekto sukeltų šališkų dalykų, kurie susidurs su autonominių transporto priemonių ir savarankiškai važiuojančių automobilių atsiradimu, pvz., žr. mano diskusiją adresu nuoroda čia ir nuoroda čia. Mes vis dar tik pradedame savarankiškai vairuoti automobilius. Kol priėmimas nepasieks pakankamo masto ir matomumo, daugelis toksiškų dirbtinio intelekto aspektų, kurių, kaip tikėjausi, galiausiai atsiras, dar nėra aiškiai matomi ir dar nesulaukė plataus visuomenės dėmesio.

Apsvarstykite iš pažiūros nesudėtingą su vairavimu susijusį dalyką, kuris iš pradžių gali atrodyti visiškai nekenksmingas. Tiksliau, panagrinėkime, kaip tinkamai nustatyti, ar sustoti laukiantiems „nukrypstantiems“ pėstiesiems, neturintiems pirmumo teisės pereiti gatvę.

Jūs neabejotinai važiavote ir susidūrėte su pėsčiaisiais, kurie laukė, kol galės pereiti gatvę, tačiau neturėjo tam teisės. Tai reiškė, kad turite teisę nuspręsti, ar sustoti ir leisti jiems pereiti. Galite tęsti neleisdami jiems kirsti ir vis tiek visiškai laikytis teisėtų vairavimo taisyklių.

Tyrimai, kaip žmonės vairuotojai nusprendžia sustoti ar nesustoti tokiems pėstiesiems, rodo, kad kartais vairuotojai pasirenka remdamiesi nepalankiu šališkumu. Vairuotojas žmogus gali pažvelgti į pėsčiąjį ir nuspręsti nesustoti, net jei būtų sustojęs, jei pėsčiojo išvaizda būtų kitokia, pavyzdžiui, dėl rasės ar lyties. Aš tai išnagrinėjau adresu nuoroda čia.

Kaip AI vairavimo sistemos bus suprogramuotos, kad priimtų tokį patį sprendimą „sustoti ar eiti“?

Galite paskelbti, kad visos AI vairavimo sistemos turėtų būti užprogramuotos taip, kad visada sustotų prieš bet kokius laukiančius pėsčiuosius. Tai labai supaprastina reikalą. Tikrai nereikės priimti gudraus sprendimo. Jei pėsčiasis laukia perėjos, nepaisant to, ar jis turi pirmumo teisę, ar ne, įsitikinkite, kad AI savarankiškai valdantis automobilis sustoja, kad pėsčiasis galėtų kirsti.

Lengvas žirnis.

Atrodo, kad gyvenimas niekada nėra toks lengvas. Įsivaizduokite, kad visi savaeigiai automobiliai laikosi šios taisyklės. Pėstieji neišvengiamai suprastų, kad dirbtinio intelekto vairavimo sistemos yra, sakykime, stumdomosios. Visi pėstieji, norintys pereiti gatvę, to norės, kada panorės ir kur bebūtų.

Tarkime, kad savarankiškai važiuojantis automobilis važiuoja greita gatve, o leistinas greitis yra 45 mylios per valandą. Pėsčiasis „žino“, kad dirbtinis intelektas sustabdys savaeigį automobilį. Taigi, pėstysis išlėkė į gatvę. Deja, fizika nugali prieš AI. AI vairavimo sistema bandys sustabdyti savaeigį automobilį, tačiau autonominės transporto priemonės pagreitis nuneš kelių tonų sveriantį daiktą į priekį ir atsitrenks į paklydusį pėsčiąjį. Rezultatas yra žalingas arba mirtinas.

Pėstieji paprastai nemėgina tokio elgesio, kai prie vairo yra vairuotojas žmogus. Žinoma, kai kuriose vietovėse vyksta akių karas. Pėsčiasis žiūri į vairuotoją. Vairuotojas žiūri į pėsčiąjį. Priklausomai nuo aplinkybių, vairuotojas gali sustoti arba vairuotojas gali pareikšti savo pretenzijas į važiuojamąją dalį ir neva išdrįsti pėsčiąjį bandyti sutrikdyti jo kelią.

Tikriausiai nenorime, kad dirbtinis intelektas įsitrauktų į panašų akies obuolio karą, kuris taip pat yra šiek tiek sudėtingas, nes prie savarankiškai važiuojančio automobilio vairo nesėdi žmogus ar robotas (aš aptariau būsimą robotų galimybę tas vairuoti, žr nuoroda čia). Tačiau taip pat negalime leisti, kad pėstieji visada skambintų. Rezultatas gali būti pražūtingas visiems suinteresuotiems asmenims.

Tuomet gali kilti pagunda apversti kitą monetos pusę ir pareikšti, kad dirbtinio intelekto sistema tokiomis aplinkybėmis niekada neturėtų sustoti. Kitaip tariant, jei pėstysis neturi tinkamos pirmumo teisės pereiti gatvę, AI visada turėtų manyti, kad savarankiškai važiuojantis automobilis turi važiuoti nepaliaujamai. Sekmės tiems pėstiesiems.

Tokia griežta ir supaprastinta taisyklė nebus palankiai priimta plačiosios visuomenės. Žmonės yra žmonės ir jiems nepatiks būti visiškai uždaryti iš galimybės pereiti gatvę, nepaisant to, kad jiems teisiškai trūksta teisės tai daryti įvairiose aplinkose. Galite nesunkiai numatyti nemažą visuomenės šurmulį ir galbūt pastebėsite neigiamą reakciją į tolesnį savaeigių automobilių naudojimą.

Prakeiktas, jei darome, ir keiksmažodis, jei ne.

Tikiuosi, kad tai atvedė jus prie pagrįstos alternatyvos, kad AI turi būti užprogramuotas taip, kad būtų galima priimti sprendimus, kaip spręsti šią vairavimo problemą. Griežta taisyklė niekada nesustoti yra nepagrįsta, o griežta taisyklė visada sustoti taip pat yra nepagrįsta. Norint išspręsti problemą, dirbtinis intelektas turi būti sukurtas naudojant tam tikrą algoritminį sprendimų priėmimą arba ADM.

Galite pabandyti naudoti duomenų rinkinį kartu su ML/DL metodu.

Štai kaip AI kūrėjai gali nuspręsti užprogramuoti šią užduotį. Jie renka duomenis iš vaizdo kamerų, esančių visame tam tikrame mieste, kuriame bus naudojamas savarankiškai važiuojantis automobilis. Duomenys rodo, kada žmonės vairuotojai nusprendžia sustoti prieš pėstiesiems, kurie neturi teisės pirmumo. Visa tai surenkama į duomenų rinkinį. Naudojant mašininį mokymąsi ir gilųjį mokymąsi, duomenys modeliuojami skaičiuojant. Tada dirbtinio intelekto sistema naudoja šį modelį, kad nuspręstų, kada sustoti ar nesustoti.

Paprastai manoma, kad nesvarbu, ką sudarytų vietiniai papročiai, dirbtinis intelektas taip nukreips savarankiškai vairuojantį automobilį. Problema išspręsta!

Bet ar tai tikrai išspręsta?

Prisiminkite, kad jau buvau nurodęs, kad yra tyrimų, įrodančių, kad vairuotojai gali būti šališki renkantis, kada sustoti pėstiesiems. Tikėtina, kad surinktuose duomenyse apie konkretų miestą bus tokių šališkumo. Tais duomenimis pagrįstas AI ML / DL greičiausiai modeliuos ir atspindės tuos pačius paklaidas. AI vairavimo sistema tik atliks tuos pačius esamus paklaidas.

Norėdami pabandyti išspręsti šią problemą, galėtume sudaryti duomenų rinkinį, kuris iš tikrųjų turi tokių paklaidų. Mes arba randame tokį duomenų rinkinį ir pažymime paklaidas, arba sintetiniu būdu sukuriame duomenų rinkinį, kuris padėtų iliustruoti reikalą.

Bus atlikti visi anksčiau nustatyti veiksmai, įskaitant:

  • Sukurkite duomenų rinkinį, kuriame tyčia yra šis konkretus šališkumas
  • Naudokite duomenų rinkinį mašininio mokymosi (ML) ir giluminio mokymosi (DL) modeliams mokyti aptikti šį konkretų paklaidą.
  • Taikykite pakreiptą ML / DL kitiems AI, kad įsitikintumėte, ar tikslinė AI gali būti pakreipta panašiai
  • Padarykite prieinamą šališkumo apmokytą ML / DL, kad AI kūrėjai parodytų, ko reikia saugotis, kad jie galėtų lengvai apžiūrėti savo modelius ir pamatyti, kaip atsiranda algoritminių paklaidų.
  • Parodykite šališko AI pavojų kaip AI etikos ir etinio AI supratimo dalį naudodami šį pridėtą konkretų pavyzdį
  • kitas

Išvada

Pažiūrėkime į pradinę eilutę.

Reikia žinoti vieną.

Kai kurie mano, kad šis neįtikėtinai paplitęs posakis reiškia, kad kai kalbama apie toksiško AI pašalinimą, turėtume tinkamai pasitikėti toksiško AI kūrimu ir panaudojimu, kad būtų galima atrasti ir kovoti su kitais toksiškais AI. Esmė: kartais reikia vagiui sugauti kitą vagį.

Išreikštas susirūpinimas yra tas, kad galbūt mes darome viską, kad pradėtume daryti vagis. Ar norime sukurti toksišką AI? Ar tai neatrodo beprotiška idėja? Kai kurie įnirtingai tvirtina, kad turėtume uždrausti bet kokį toksišką DI, įskaitant tokį dirbtinį intelektą, kuris buvo sąmoningai sukurtas, net jei tariamai tai buvo herojiška ar galantiška. AI for Good tikslas.

Užgniaužkite toksišką dirbtinį intelektą bet kokiu gudriu ar klastingu pavidalu, kuris gali atsirasti.

Paskutinis posūkis šia tema. Paprastai manome, kad ši garsioji linija yra susijusi su žmonėmis ar dalykais, kurie daro blogus ar rūgštus veiksmus. Taip mes suprantame, kad vagį sugauti reikia vagio. Galbūt turėtume apversti šį posakį ir padaryti jį labiau linksmu, o ne liūdnu veidu.

Štai kaip.

Jei norime, kad dirbtinis intelektas būtų nešališkas ir netoksiškas, gali būti, kad jį reikia žinoti. Galbūt atpažinti ir pagimdyti tolesnę didybę ir gėrį reikia pačių didžiausių ir geriausių. Šiame išminties variante žiūrime į laimingą veidą ir siekiame sutelkti dėmesį į kūrimą AI for Good.

Jei žinote, ką aš turiu omenyje, tai būtų optimistiškesnis ir malonesnis požiūris, kurį reikia žinoti.

Šaltinis: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biase-might-be- naudinga-įskaitant-tiems-autonominiams-savarankiškai važiuojantiems-automobiliams/