Dirbtinio intelekto etika skamba pavojaus varpais apie gresiantį AI šališkumo masinį pasaulinį mastą, ypač skatinamą gresiančių visiškai autonominių sistemų

Platonas garsiai pareiškė, kad geras sprendimas grindžiamas žiniomis, o ne skaičiais.

Atrodo, kad ši įžvalgi įžvalga apie šiandieninį dirbtinį intelektą (AI) yra nuostabi.

Matote, nepaisant siaubingų antraščių, skelbiančių, kad dirbtinis intelektas kažkaip pasiekė supratimą ir įkūnija žmogaus žinias bei samprotavimus, atminkite, kad ši perdėta AI hiperbolė yra klastingas išsisukinėjimas, nes šiandienos sprendimų dėl algoritmų priėmimo metu (ADM) vis dar pasikliaujame skaičiais. ), kaip tai daro AI sistemos. Net išgirtas mašinų mokymasis (ML) ir gilusis mokymasis (DL) susideda iš skaičiavimo modelių suderinimo, o tai reiškia, kad skaičiai vis dar yra aukšto ML / DL naudojimo pagrindas.

Nežinome, ar dirbtinis intelektas gali pasiekti jautrumą. Gali būti, gali nebūti. Niekas negali tiksliai pasakyti, kaip tai gali atsirasti. Kai kurie mano, kad laipsniškai tobulinsime savo skaičiavimo dirbtinio intelekto pastangas, kad spontaniškai atsirastų jausmų forma. Kiti mano, kad dirbtinis intelektas gali pereiti į tam tikrą skaičiavimo supernovą ir pasiekti jausmą beveik savaime (paprastai vadinamas singuliarumu). Norėdami sužinoti daugiau apie šias teorijas apie AI ateitį, žr. mano aprėptį adresu nuoroda čia.

Taigi, neapgaukime savęs ir klaidingai tikėkime, kad šiuolaikinis AI gali mąstyti kaip žmonės. Spėju, kad tuomet iškilo klausimas dėl Platono pastabos, ar galime priimti gerus sprendimus, pagrįstus skaičiavimo AI, o ne jausmingu AI. Galbūt nustebsite sužinoję, kad aš tvirtinu, kad kasdienės AI sistemos tikrai gali priimti gerus sprendimus.

Kita medalio pusė yra ta, kad mes taip pat galime turėti kasdienes AI sistemas, kurios priima blogus sprendimus. Supuvę sprendimai. Sprendimai, kuriuose gausu nepageidaujamų šališkumo ir nelygybės. Galbūt žinote, kad prasidėjus naujausiai AI erai, buvo didžiulis entuziazmo pliūpsnis dėl to, ką kai kas dabar vadina. AI for Good. Deja, ant kulnų to trykštančio jaudulio pradėjome liudyti AI For Bad. Pavyzdžiui, buvo atskleista, kad įvairios dirbtiniu intelektu pagrįstos veido atpažinimo sistemos turi rasinių ir lyčių tendencijų, kurias aptariau nuoroda čia.

Pastangos atsispirti AI For Bad aktyviai vyksta. Be garsaus juridinis Siekdami suvaldyti neteisėtus veiksmus, taip pat yra esminis postūmis priimti dirbtinio intelekto etiką, siekiant ištaisyti DI niekšybę. Manoma, kad turėtume priimti ir patvirtinti pagrindinius etinio AI principus, skirtus dirbtinio intelekto vystymui ir plėtrai, taip siekdami sumažinti AI For Bad ir tuo pat metu skelbti ir reklamuoti tai, kas geriausia AI for Good.

Mano išsamią informaciją apie AI etiką ir etišką AI rasite adresu šią nuorodą čia ir šią nuorodą čia, Tik pavadinimas kelias.

Šioje diskusijoje norėčiau iškelti ypač nerimą keliantį AI aspektą, dėl kurio AI etikos arenoje esantys asmenys pagrįstai dejuoja ir bando kelti tinkamą supratimą. Iš tikrųjų gana paprasta atkreipti dėmesį į blaivų ir nerimą keliantį dalyką.

Štai jis: Dirbtinis intelektas turi realų potencialą kelti nerimą keliančiu pasauliniu mastu AI persunktą šališkumą.

Ir kai sakau „masteliu“, tai akivaizdžiai reiškia pasaulinį masinį mastą. Humongo mastas. Svarstyklės, kurios nukrenta nuo svarstyklių.

Prieš pasinerdami į tai, kaip vyks šis dirbtinio intelekto perpildytų paklaidų mastelio keitimas, įsitikinkime, kad visi suprantame, kaip dirbtinis intelektas gali įtraukti nepagrįstą šališkumą ir nelygybę. Dar kartą prisiminkite, kad tai nėra jautri įvairovė. Visa tai yra skaičiavimo kalibras.

Galite būti suglumę, kaip AI gali sukelti tokius pat neigiamus šališkumus ir nelygybę, kaip ir žmonės. Esame linkę manyti, kad dirbtinis intelektas yra visiškai neutralus, nešališkas, tiesiog mašina, neturinti jokios emocinės įtakos ir blogo mąstymo, kokį gali turėti žmonės. Viena iš labiausiai paplitusių AI priemonių, susijusių su šališkumu ir nelygybe, atsiranda naudojant mašininį mokymąsi ir gilųjį mokymąsi, iš dalies dėl to, kad remiamasi surinktais duomenimis apie tai, kaip žmonės priima sprendimus.

Leiskite man šiek tiek laiko paaiškinti.

ML/DL yra skaičiavimo modelių derinimo forma. Įprastas būdas yra rinkti duomenis apie sprendimo priėmimo užduotį. Duomenis tiekiate į ML/DL kompiuterių modelius. Šie modeliai siekia rasti matematinius modelius. Radusi tokius modelius, jei taip bus, AI sistema naudos tuos modelius, kai susidurs su naujais duomenimis. Pateikus naujus duomenis, dabartiniam sprendimui priimti taikomi modeliai, pagrįsti „senais“ arba istoriniais duomenimis.

Manau, galite atspėti, kur tai link. Jei žmonės, priimdami pagrįstus sprendimus, įtraukė nepalankų šališkumą, tikėtina, kad duomenys tai atspindi subtiliai, bet reikšmingai. Mašininio mokymosi arba giluminio mokymosi skaičiavimo modelių derinimas tiesiog bandys atitinkamai matematiškai imituoti duomenis. AI sukurtame modeliavime per se nėra panašumo į sveiką protą ar kitus jautrius aspektus.

Be to, AI kūrėjai taip pat gali nesuprasti, kas vyksta. Dėl paslaptingos matematikos ML/DL gali būti sunku išsklaidyti dabar paslėptus šališkumus. Jūs pagrįstai tikėtumėte ir tikitės, kad AI kūrėjai išbandys galimai palaidotus šališkumus, nors tai yra sudėtingiau, nei gali atrodyti. Yra didelė tikimybė, kad net ir atlikus gana platų testavimą, ML/DL modelių atitikimo modeliuose vis tiek bus paklaidų.

Galite šiek tiek pasinaudoti garsiuoju ar liūdnai pagarsėjusiu posakiu apie šiukšlių išvežimą. Reikalas tas, kad tai labiau panašu į šališkumą, kuris klastingai įsiskverbia į AI paskendusį šališkumą. AI sprendimų priėmimo algoritmas arba ADM aksiomatiškai apkraunamas nelygybe.

Negerai.

Tai priveda prie AI persmelktų šališkumo, kai yra didelis mastas.

Pirmiausia pažiūrėkime, kaip žmonių šališkumas gali sukurti nelygybę. Hipotekos paskolas teikianti įmonė nusprendžia samdyti būsto paskolų agentą. Agentas turėtų peržiūrėti vartotojų, norinčių gauti būsto paskolą, prašymus. Įvertinęs prašymą, agentas priima sprendimą suteikti paskolą arba atmesti paskolą. Lengvas-žirgus.

Diskusijų sumetimais įsivaizduokime, kad paskolų agentas gali išanalizuoti 8 paskolas per dieną, užtrukdamas apie vieną valandą. Per penkių dienų darbo savaitę agentas atlieka apie 40 paskolų peržiūrų. Kasmet agentas paprastai peržiūri apie 2,000 paskolų peržiūrų, šiek tiek duoda arba paima.

Bendrovė nori padidinti paskolų peržiūrų apimtis, todėl įmonė papildomai samdo 100 paskolų agentų. Tarkime, kad jų visų produktyvumas yra maždaug toks pat ir tai reiškia, kad dabar galime tvarkyti apie 200,000 2,000 paskolų per metus (kaip XNUMX XNUMX paskolų peržiūrų per metus vienam agentui). Atrodo, kad mes tikrai paspartinome paskolų paraiškų tvarkymą.

Pasirodo, bendrovė kuria AI sistemą, kuri iš esmės gali atlikti tokias pačias paskolų peržiūras kaip ir žmogiškieji agentai. AI veikia kompiuterių serveriuose debesyje. Naudodama debesų infrastruktūrą, įmonė gali lengvai pridėti daugiau skaičiavimo galios, kad galėtų atlikti bet kokį paskolų peržiūrų kiekį, kurio gali prireikti.

Naudodami esamą AI konfigūraciją, jie gali atlikti 1,000 paskolų peržiūrų per valandą. Tai taip pat gali atsitikti 24 × 7. AI nereikia atostogų. Jokių pietų pertraukų. Dirbtinis intelektas veikia visą parą, nesikreipdamas dėl pervargimo. Sakysime, kad tokiu apytiksliu tempu AI per metus gali apdoroti beveik 9 milijonus paskolos paraiškų.

Atkreipkite dėmesį, kad nuo 100 žmogiškųjų agentų, galinčių suteikti 200,000 9 paskolų per metus, per metus šoktelėjome į gerokai padidintą XNUMX milijonų peržiūrų skaičių per metus per AI sistemą. Mes labai padidinome paskolos prašymų apdorojimą. Jokių abejonių.

Pasiruoškite smūgiui, kuris galbūt privers jus nukristi nuo kėdės.

Tarkime, kad kai kurie mūsų žmogiškieji agentai priima sprendimus dėl paskolos, remdamiesi nepalankiu šališkumu. Galbūt kai kurie lemiamą vaidmenį priimant sprendimą dėl paskolos suteikia rasiniams veiksniams. Galbūt kai kurie naudoja lytį. Kiti naudoja amžių. Ir taip toliau.

Kiek iš 200,000 10 metinių paskolų peržiūrų atliekama neteisingai žiūrint į neigiamą šališkumą ir nelygybę? Galbūt 20,000%, tai yra apie 50 100,000 paskolos prašymų. Dar blogiau, tarkime, kad tai sudaro XNUMX% paskolos prašymų, tokiu atveju yra gana nerimą keliančių XNUMX XNUMX atvejų, kai per metus priimami neteisingai sprendimai dėl paskolos.

Tai blogai. Tačiau mes dar turime apsvarstyti dar baisesnę galimybę.

Tarkime, AI turi paslėptą šališkumą, kurį sudaro tokie veiksniai kaip rasė, lytis, amžius ir panašiai. Jei 10% metinių paskolų analizės yra susijusios su šiuo nemalonumu, turime 900,000 100 paskolų užklausų, kurios yra netinkamai tvarkomos. Tai daug daugiau, nei galėtų padaryti žmogiškieji agentai, visų pirma dėl apimties aspektų. Tie 200,000 agentų, jei visi atliktų nešališką peržiūrą, galėtų tai padaryti daugiausia per 9,000,000 XNUMX metinių paskolų peržiūrų. AI galėtų padaryti tą patį, kai atliekama XNUMX XNUMX XNUMX metinių peržiūrų.

Oi!

Tai tikrai didžiulio masto AI persmelktas šališkumas.

Kai dirbtinio intelekto sistemoje atsiranda nepageidaujamų tendencijų, tas pats mastelio keitimas, kuris atrodė naudingas, dabar apsiverčia ir tampa nepaprastai viliojančiu (ir trikdančiu) mastelio keitimo rezultatu. Viena vertus, dirbtinis intelektas gali padėti priimti daugiau žmonių, kurie prašo paskolos būstui. Iš pažiūros tai atrodo nuostabu AI for Good. Turėtume paglostyti sau per nugarą, nes tikriausiai padidiname žmonių galimybes gauti reikiamas paskolas. Tuo tarpu, jei dirbtinis intelektas yra įterptas šališkumo, mastelio keitimas bus nepaprastai supuvęs rezultatas ir mes apgailėtinai įklimpome į AI For Bad, tikrai didžiuliu mastu.

Patarlės dviašmenis kardas.

AI gali radikaliai padidinti prieigą prie sprendimų priėmimo tiems, kurie ieško norimų paslaugų ir produktų. Nebereikia žmogaus suvaržytų darbo kliūčių. Išskirtinis! Kitas kardo briauna yra tai, kad jei dirbtinis intelektas turi blogybių, pavyzdžiui, paslėptų nelygybių, tas pats didžiulis mastelio keitimas išplatins tą nepageidaujamą elgesį neįsivaizduojamu mastu. Įkyrus, neteisingas, gėdingas, ir mes negalime leisti, kad visuomenė papultų į tokią bjaurią bedugnę.

Kiekvienas, kuris buvo suglumęs, kodėl turime susimąstyti apie AI etikos svarbą, dabar turėtų suprasti, kad AI mastelio reiškinys yra velniškai svarbi priežastis siekti etiško AI. Skirkime šiek tiek laiko ir trumpai apsvarstykime kai kuriuos pagrindinius etinio AI nurodymus, kad parodytume, kas turėtų būti gyvybiškai svarbi kiekvienam, kuriančiam, besikuriančiam ar naudojančiam dirbtinį intelektą.

Pavyzdžiui, kaip teigia Vatikanas Roma ragina dirbtinio intelekto etiką ir kaip aš išsamiai aprašiau nuoroda čia, tai yra šeši pagrindiniai AI etikos principai:

  • Skaidrumas: Iš esmės AI sistemos turi būti paaiškinamos
  • Įtraukimas: Turi būti atsižvelgta į visų žmonių poreikius, kad visi galėtų gauti naudos, o visiems būtų sudarytos geriausios sąlygos išreikšti save ir tobulėti.
  • Atsakomybė: Tie, kurie kuria ir diegia dirbtinio intelekto naudojimą, turi elgtis atsakingai ir skaidriai
  • Nešališkumas: Nekurkite ir nesielkite pagal šališkumą, taip saugodami sąžiningumą ir žmogaus orumą
  • Patikimumas: AI sistemos turi veikti patikimai
  • Saugumas ir privatumas: AI sistemos turi veikti saugiai ir gerbti vartotojų privatumą.

Kaip teigia JAV gynybos departamentas (DoD) savo Dirbtinio intelekto naudojimo etiniai principai ir kaip aš išsamiai aprašiau nuoroda čia, tai yra šeši pagrindiniai AI etikos principai:

  • Atsakingas: DoD darbuotojai laikysis tinkamo lygio sprendimo ir rūpestingumo, likdami atsakingi už AI galimybių kūrimą, diegimą ir naudojimą.
  • Teisingas: Departamentas imsis apgalvotų veiksmų, kad sumažintų nenumatytą AI galimybių paklaidą.
  • Atsekama: Departamento dirbtinio intelekto pajėgumai bus plėtojami ir naudojami taip, kad atitinkami darbuotojai tinkamai išmanytų technologijas, kūrimo procesus ir veiklos metodus, taikomus dirbtinio intelekto pajėgumams, įskaitant skaidrias ir audituojamas metodikas, duomenų šaltinius ir projektavimo procedūras bei dokumentus.
  • patikimas: Departamento dirbtinio intelekto pajėgumai bus aiškiai ir tiksliai apibrėžti, o tokių galimybių sauga, saugumas ir veiksmingumas bus tikrinamas ir užtikrinamas pagal nustatytus naudojimo būdus per visą jų gyvavimo ciklą.
  • Valdomas: Departamentas suprojektuos ir suprojektuos dirbtinio intelekto pajėgumus, kad jie galėtų atlikti numatytas funkcijas, tuo pat metu turėdami galimybę aptikti ir išvengti nenumatytų pasekmių bei išjungti arba išjungti įdiegtas sistemas, kurios demonstruoja nenumatytą elgesį.

Taip pat aptariau įvairias kolektyvines dirbtinio intelekto etikos principų analizes, įskaitant tyrėjų parengtą rinkinį, kuris išnagrinėjo ir apibendrino daugelio nacionalinių ir tarptautinių AI etikos principų esmę straipsnyje „Pasaulinis AI etikos gairių kraštovaizdis“ (paskelbtas). in Gamta), ir kad mano aprėptis nagrinėjama adresu nuoroda čia, dėl kurio atsirado šis kertinių akmenų sąrašas:

  • Skaidrumas
  • Teisingumas ir sąžiningumas
  • Nepiktybiškumas
  • atsakomybė
  • Privatumo politika
  • Gerumas
  • Laisvė ir autonomija
  • Pasitikėkite
  • Tvarumas
  • orumas
  • Solidarumas

Kaip galite tiesiogiai atspėti, gali būti labai sunku nustatyti šių principų ypatumus. Dar daugiau, pastangos tuos plačius principus paversti kažkuo visiškai apčiuopiamu ir pakankamai išsamiu, kad būtų galima panaudoti kuriant AI sistemas, taip pat yra sunkus riešutas. Apskritai lengva numoti ranka apie tai, kas yra AI etikos nuostatos ir kaip jų apskritai reikia laikytis, o daug sudėtingesnė situacija, kai dirbtinio intelekto kodavimas turi būti tikra guma, atitinkanti kelią.

DI etikos principus turi naudoti DI kūrėjai, taip pat tie, kurie valdo DI kūrimo pastangas ir netgi tie, kurie galiausiai kuria ir atlieka AI sistemų priežiūrą. Visos suinteresuotosios šalys per visą DI kūrimo ir naudojimo ciklą laikosi nustatytų etiško AI normų. Tai svarbus akcentas, nes įprasta prielaida, kad „tik koduotojai“ arba tie, kurie programuoja AI, turi laikytis AI etikos sąvokų. Atminkite, kad dirbtiniam intelektui sukurti ir įgyvendinti reikia kaimo. Dėl to visas kaimas turi laikytis AI etikos.

Kaip veikia dirbtinio intelekto šališkumo mastelio keitimas

Dabar, kai supratau, kad dirbtinis intelektas gali turėti paklaidų, esame pasirengę išnagrinėti kai kurias priežastis, kodėl DI mastelio keitimas yra toks įkyrus.

Apsvarstykite šį dešimties pagrindinių priežasčių sąrašą:

  1. Lengvai atkartojamas
  2. Minimali kaina pagal mastelį
  3. Bjauriai nuoseklus
  4. Savirefleksijos trūkumas
  5. Aklas paklusnumas
  6. Nenuverčia rankos
  7. Gavėjas nieko neįtaria
  8. Linkęs neskatinti provokacijų
  9. Klaidinga sąžiningumo aura
  10. Sunku paneigti

Trumpai išnagrinėsiu kiekvieną iš šių esminių dalykų.

Kai bandysite padidinti mastą su žmogaus darbu, yra tikimybė, kad tai padaryti bus nepaprastai sudėtinga. Turite surasti ir samdyti žmones. Jūs turite išmokyti juos atlikti darbą. Turite jiems mokėti ir atsižvelgti į žmogaus norus ir poreikius. Palyginkite tai su AI sistema. Jūs jį kuriate ir naudojate. Išskyrus tam tikrą nuolatinį AI priežiūrą, galite ramiai sėdėti ir leisti jam apdoroti be galo.

Tai reiškia, kad dirbtinis intelektas yra lengvai atkartojamas. Galite pridėti daugiau skaičiavimo galios, atsižvelgiant į užduotį ir apimtis (nesamdote ar atleidžiate). Pasaulinis naudojimas atliekamas vienu mygtuko paspaudimu ir pasiekiamas visame pasaulyje prieinamu internetu. Padidinimas yra minimalios išlaidos, palyginti su panašiu darbu su žmogaus darbu.

Žmogaus darbas yra žinomas nenuoseklus. Kai turi dideles komandas, turi tikrą šokolado dėžutę, kurioje niekada nežinai, ką gali turėti ant rankų. Tikėtina, kad AI sistema bus labai nuosekli. Ji kartoja tą pačią veiklą vėl ir vėl, kiekvieną kartą iš esmės tokia pati kaip ir paskutinė.

Paprastai mums patiktų dirbtinio intelekto nuoseklumas. Jei žmonės yra linkę į šališkumą, mes visada turėsime dalį savo žmogiškojo darbo, kuris nuklysta. AI, jei jis būtų visiškai nešališkas savo kūrimo ir skaičiavimo pastangomis, būtų daug nuoseklesnis. Tačiau problema ta, kad jei dirbtinis intelektas turi paslėptų paklaidų, nuoseklumas dabar yra skausmingai pasibjaurėtinas. Tikėtina, kad šališkas elgesys bus nuosekliai vykdomas vėl ir vėl.

Tikimasi, kad žmonės turės savirefleksijos jausmą ir galbūt priims neobjektyvius sprendimus. Nesakau, kad visi taip elgtųsi. Taip pat nesakau, kad tie, kurie susigaudo, būtinai ištaisys savo klaidas. Bet kokiu atveju, bent kai kurie žmonės kartais pasitaisytų.

AI greičiausiai neturės jokios skaičiavimo savirefleksijos. Tai reiškia, kad AI tiesiog ir toliau daro tai, ką daro. Panašu, kad nėra jokios tikimybės, kad dirbtinis intelektas aptiktų, kad jis pažeidžia teisingumą. Be to, aprašiau kai kurias pastangas, kaip tai išspręsti, pavyzdžiui, dirbtinio intelekto etikos komponentų kūrimą dirbtinio intelekto viduje (žr. nuoroda čia) ir sukurti dirbtinį intelektą, kuris stebi kitus AI, kad nustatytų neetišką AI veiklą (žr nuoroda čia).

Neturėdamas jokios savirefleksijos, dirbtinis intelektas taip pat iš esmės aklai paklus tam, ką jam buvo pavesta daryti. Žmonės gali būti ne tokie paklusnūs. Tikėtina, kad kai kurie žmonės, atliekantys užduotį, suabejos, ar jie gali būti nukreipti į nelygybės teritoriją. Jie linkę atmesti neetiškas komandas arba galbūt eiti informatoriaus keliu (žr. mano pranešimus adresu šią nuorodą čia). Nesitikėkite, kad kasdienis šiuolaikinis AI kažkaip suabejos jo programavimu.

Toliau kreipiamės į tuos, kurie naudoja AI. Jei ieškojote būsto paskolos ir kalbėjote su žmogumi, galite būti budrūs, ar tas žmogus jus gerai papurto. Kai naudojasi AI sistema, dauguma žmonių atrodo mažiau įtarūs. Jie dažnai mano, kad dirbtinis intelektas yra teisingas, todėl ne taip greitai supyksta. Atrodo, kad dirbtinis intelektas užliūliuoja žmones į „tai tik mašina“ transą. Be to, gali būti sunku pabandyti protestuoti prieš AI. Priešingai, protestuoti, kaip su jumis elgėsi žmogiškasis agentas, yra daug lengviau ir daug dažniau priimama ir manoma, kad tai įmanoma.

Apskritai, išankstinių nusistatymų persmelktas dirbtinis intelektas turi negarbingą įtaką žmonėms, persunkiems šališkumo, būtent dėl ​​to, kad dirbtinis intelektas gali masiškai panaudoti tuos šališkumus milžinišku mastu ir taip lengvai nepagaunamas ar neturintis vartotojų. suvokti, kas vyksta nerimą.

Šiame šios diskusijos etape galiu lažintis, kad norite pateikti keletą papildomų pavyzdžių, kurie galėtų atskleisti AI persmelktų šališkumo mastą.

Malonu, kad paklausei.

Yra ypatingas ir neabejotinai populiarus pavyzdžių rinkinys, kuris man prie širdies. Matote, kaip dirbtinio intelekto, įskaitant etines ir teisines pasekmes, ekspertas, manęs dažnai prašoma pateikti realių pavyzdžių, atskleidžiančių DI etikos dilemas, kad būtų galima lengviau suvokti šiek tiek teorinį temos pobūdį. Viena iš įdomiausių sričių, ryškiai pristatančių šią etišką AI kliūtį, yra dirbtinio intelekto pagrindu sukurtų tikrų savaeigių automobilių atsiradimas. Tai bus patogus naudojimo atvejis arba pavyzdys plačioms diskusijoms šia tema.

Štai vertas dėmesio klausimas, kurį verta apsvarstyti: Ar dirbtinio intelekto pagrindu sukurtų tikrų savarankiškai vairuojančių automobilių atsiradimas ką nors atskleidžia apie AI perpildytus šališkumus, ir jei taip, ką tai parodo?

Leiskite man akimirką išpakuoti klausimą.

Pirma, atkreipkite dėmesį, kad tikrai savarankiškai vairuojančiame automobilyje nėra žmogaus vairuotojo. Atminkite, kad tikri savarankiškai važiuojantys automobiliai yra valdomi naudojant AI vairavimo sistemą. Nereikia, kad prie vairo būtų vairuotojas žmogus, taip pat nėra numatyta, kad žmogus galėtų vairuoti transporto priemonę. Išsamią ir nuolatinę informaciją apie autonomines transporto priemones (AV) ir ypač apie savarankiškai važiuojančius automobilius žr. nuoroda čia.

Norėčiau dar labiau paaiškinti, ką turiu omenyje, kai kalbu apie tikrus savarankiškai vairuojančius automobilius.

Suprasti savarankiškų automobilių lygį

Paaiškinimas: tikri savaeigiai automobiliai yra tie, kad dirbtinis intelektas visiškai valdo automobilį ir vairavimo užduotyje nėra jokios žmogaus pagalbos.

Šios transporto priemonės be vairuotojo laikomos 4 ir 5 lygiais (žr. mano paaiškinimą adresu šią nuorodą čia), o automobilis, kurio vairuotojas turi pasidalyti vairavimo pastangomis, paprastai laikomas 2 arba 3 lygiu. Automobiliai, kurie kartu atlieka vairavimo užduotį, apibūdinami kaip pusiau savarankiški ir paprastai juose yra įvairių automatiniai priedai, vadinami ADAS (išplėstinės vairuotojo pagalbos sistemos).

Dar nėra tikro 5 lygio lygio savarankiškai važiuojančio automobilio, kurio mes net nežinome, ar tai bus įmanoma pasiekti, ir nei kiek laiko prireiks jo nuvažiavimui.

Tuo tarpu 4 lygio pastangos pamažu bando įgyti šiek tiek traukos atlikdami labai siaurus ir selektyvius viešųjų kelių bandymus, nors kyla ginčų dėl to, ar šis bandymas turėtų būti leidžiamas per se (mes visi esame gyvybės ar mirties jūrų kiaulytės eksperimente vyksta mūsų greitkeliuose ir pakelėse, kai kurie tvirtina, žr. mano aprėptį adresu šią nuorodą čia).

Kadangi pusiau autonominiams automobiliams reikalingas žmogiškas vairuotojas, šių tipų automobiliai bus žymiai kitokie nei vairuojant įprastas transporto priemones, todėl apie juos šioje temoje nėra daug naujų, tačiau, kaip pamatysite po akimirkos kiti taškai yra paprastai taikomi).

Dėl pusiau autonominių automobilių svarbu, kad visuomenė būtų perspėta apie nerimą keliantį aspektą, kuris pastaruoju metu iškyla, būtent, kad nepaisant tų vairuotojų, kurie nuolat skelbia vaizdo įrašus apie tai, kaip jie užmiega prie 2 ar 3 lygio automobilių vairo , visi turime vengti klaidinti manydami, kad vairuotojas, vairuodamas pusiau autonominį automobilį, gali atitraukti dėmesį nuo vairavimo užduoties.

Jūs esate atsakingas už transporto priemonės vairavimo veiksmus, nepaisant to, kiek automatikos gali būti išmesta į 2 ar 3 lygį.

Savarankiškai važiuojantys automobiliai ir dirbtinio intelekto šališkumas mastu

Tikrosios 4 ir 5 lygio savarankiškai vairuojančioms transporto priemonėms vairuotojo užduotis nebus skirta žmonėms.

Visi keleiviai bus keleiviai.

AI vairuoja.

Vienas aspektas, kurį reikia nedelsiant aptarti, reiškia, kad dirbtinis intelektas, dalyvaujantis šiandieninėse dirbtinio intelekto vairavimo sistemose, nėra jausmingas. Kitaip tariant, dirbtinis intelektas yra kompiuterinio programavimo ir algoritmų kolektyvas, kuris, be abejo, negali samprotauti taip, kaip gali žmonės.

Kodėl taip pabrėžiama, kad AI nėra jautrus?

Nes noriu pabrėžti, kad aptardamas dirbtinio intelekto vairavimo sistemos vaidmenį, aš AI nepriskiriu žmogaus savybių. Turėkite omenyje, kad šiomis dienomis yra nuolatinis ir pavojingas polinkis antropomorfizuoti AI. Iš esmės žmonės priskiria žmonėms panašų jausmą šiandieniniam dirbtiniam intelektui, nepaisant neginčijamo ir neginčijamo fakto, kad tokio AI dar nėra.

Patikslinę galite įsivaizduoti, kad dirbtinio intelekto vairavimo sistema savaime kažkaip „neišmanys“ vairavimo aspektų. Vairavimą ir visa tai, ką tai reiškia, reikės užprogramuoti kaip savarankiško automobilio techninės ir programinės įrangos dalį.

Pasinerkime į begalę aspektų, kurie yra svarbūs šia tema.

Pirma, svarbu suprasti, kad ne visi dirbtinio intelekto automobiliai yra vienodi. Kiekvienas automobilių gamintojas ir savarankiškai vairuojančių technologijų įmonė laikosi savo požiūrio į savaeigių automobilių kūrimą. Todėl sunku pateikti plačius teiginius apie tai, ką AI vairavimo sistemos darys ar ne.

Be to, kai teigiama, kad dirbtinio intelekto vairavimo sistema neatlieka tam tikro dalyko, vėliau tai gali aplenkti kūrėjai, kurie iš tikrųjų užprogramuoja kompiuterį tai padaryti. Žingsnis po žingsnio AI vairavimo sistemos palaipsniui tobulinamos ir plečiamos. Esamo apribojimo šiandien gali nebelikti būsimoje iteracijoje ar sistemos versijoje.

Aš tikiu, kad tai suteikia pakankamai litanijos įspėjimų, kuriais grindžiamas tai, ką ketinu pasakyti.

Dabar esame pasiruošę giliai pasinerti į savarankiškai važiuojančius automobilius ir etiškas dirbtinio intelekto galimybes, susijusias su AI persunktų šališkumo, kuris yra plačiai skelbiamas, tyrinėjimu.

Panaudokime lengvai suprantamą pavyzdį. Dirbtinio intelekto pagrindu veikiantis savarankiškai vairuojamas automobilis važinėja jūsų kaimynystės gatvėse ir atrodo, kad važiuoja saugiai. Iš pradžių skyrėte ypatingą dėmesį kiekvieną kartą, kai pavykdavo užmesti akį į savaeigį automobilį. Autonominė transporto priemonė išsiskyrė savo elektroninių jutiklių stovu, kuriame buvo vaizdo kameros, radarai, LIDAR įrenginiai ir panašiai. Po daugelio savaičių savaeigio automobilio važinėjimo po jūsų bendruomenę dabar vos pastebite. Jūsų nuomone, tai tik dar vienas automobilis jau judriuose viešuosiuose keliuose.

Kad nepagalvotumėte, kad neįmanoma ar neįtikėtina susipažinti su savaeigiais automobiliais, aš dažnai rašiau apie tai, kaip vietos, kurios patenka į savarankiško automobilio bandymus, pamažu priprato prie išpuoselėtų transporto priemonių. žiūrėkite mano analizę adresu šią nuorodą čia. Daugelis vietinių ilgainiui perėjo nuo burna žiojančio pasižavėjusio žvilgčiojimo į dabar skleidžiantį platų nuobodulio žiovumą, kad pamatytų tuos vingiuojančius savarankiškai važiuojančius automobilius.

Tikriausiai pagrindinė priežastis, kodėl jie gali pastebėti autonomines transporto priemones, yra susierzinimo ir susierzinimo veiksnys. AI vairavimo sistemos užtikrina, kad automobiliai laikytųsi visų greičio apribojimų ir kelių eismo taisyklių. Įspūdingi vairuotojai, važinėjantys tradiciniais žmonių varomais automobiliais, kartais erzina, kai užstrigo už griežtai įstatymų paisančių dirbtinio intelekto savarankiškų automobilių.

Prie to mums visiems gali tekti priprasti, teisingai ar neteisingai.

Grįžkime prie mūsų pasakos.

Paaiškėjo, kad pradeda kilti du nepagrįsti rūpesčiai dėl šiaip nekenksmingų ir apskritai sveikintinų dirbtinio intelekto pagrindu veikiančių savaeigių automobilių, būtent:

a. Ten, kur dirbtinis intelektas tarptinkliškai važinėja savarankiškai važiuojančiais automobiliais, kad galėtų pasivažinėti, iškilo kaip garsus susirūpinimas

b. Tai, kaip dirbtinis intelektas elgiasi su laukiančiais pėsčiaisiais, neturinčiais pirmumo teisės, iškilo kaip neatidėliotina problema

Iš pradžių AI važinėjo savarankiškai važiuojančiais automobiliais visame mieste. Kiekvienas, norintis paprašyti pasivažinėjimo savaeigiu automobiliu, iš esmės turėjo lygias galimybes jį pasveikinti. Palaipsniui dirbtinis intelektas pirmiausia ėmė išlaikyti savavaldžius automobilius tik vienoje miesto dalyje. Ši sekcija uždirbo daugiau pinigų, o dirbtinio intelekto sistema buvo suprogramuota taip, kad bandytų maksimaliai padidinti pajamas, kaip dalis naudojimo bendruomenėje.

Skurdžiose miestelio vietose bendruomenės nariai rečiau galėjo pasivažinėti savaeigiu automobiliu. Taip buvo todėl, kad savarankiškai važiuojantys automobiliai buvo toliau ir važinėjo didesnių pajamų srityje. Kai užklausa gaunama iš tolimos miesto dalies, bet koks prašymas iš arčiau esančios vietos, kuri greičiausiai buvo „gerbiamoje“ miesto dalyje, bus teikiama pirmenybė. Galiausiai gauti savaeigį automobilį bet kurioje kitoje vietoje, išskyrus turtingesnę miesto dalį, buvo beveik neįmanoma, o tai kelia nerimą tiems, kurie gyveno tuose dabar išteklių badaujančiuose rajonuose.

Galite tvirtinti, kad dirbtinis intelektas iš esmės atsidūrė tarpininko diskriminacijos formoje (taip pat dažnai vadinama netiesiogine diskriminacija). AI nebuvo užprogramuotas taip, kad išvengtų tų skurdesnių rajonų. Vietoj to, jis „išmoko“ tai padaryti naudodamas ML / DL.

Reikalas tas, kad pavėžėjimo žmonės buvo žinomi dėl to, kad daro tą patį, nors nebūtinai vien dėl pinigų uždirbimo kampo. Kai kurie pavėžėjimo žmonės vairuotojai buvo nepalankiai nusiteikę paimti motociklininkus tam tikrose miesto vietose. Tai buvo šiek tiek žinomas reiškinys, todėl miestas įdiegė stebėjimo metodą, kad gautų tai darančius žmones. Vairuotojai gali susidurti su bėdomis atlikdami nepatogią atrankos praktiką.

Buvo manoma, kad AI niekada nepateks į tą patį smėlį. Nebuvo sukurtas specialus stebėjimas, leidžiantis stebėti, kur važiuoja dirbtinio intelekto pagrindu veikiantys automobiliai. Tik po to, kai bendruomenės nariai pradėjo skųstis, miesto vadovai suprato, kas vyksta. Norėdami sužinoti daugiau apie tokio tipo problemas visame mieste, kurias ketina pristatyti autonominės transporto priemonės ir savarankiškai važiuojantys automobiliai, žr. mano aprėptį adresu šią nuorodą čia ir kuriame aprašomas Harvardo vadovaujamas tyrimas, kurio bendraautorius šia tema.

Šis dirbtinio intelekto pagrindu veikiančių savarankiškai vairuojančių automobilių tarptinklinio ryšio aspektų pavyzdys iliustruoja ankstesnius požymius, kad gali būti situacijų, kuriose žmonės gali turėti nepalankių išankstinių nusistatymų, kuriems taikomos kontrolės priemonės, o dirbtinis intelektas, pakeičiantis tuos žmones vairuotojus, yra paliktas visiškai. Laisvas. Deja, dirbtinis intelektas gali pamažu įklimpti į panašias tendencijas ir tai padaryti be pakankamai apsauginių turėklų.

Tai taip pat parodo AI didelius šališkus masto problemą.

Žmonių vairuotojų atveju galbūt turėjome keletą žmonių, kurie darė tam tikrą nelygybę. Dirbtinio intelekto vairavimo sistemai tai paprastai yra vienas iš tokių vieningų DI visam savarankiškai vairuojančių automobilių parkui. Taigi, mes galėjome pradėti nuo penkiasdešimties savarankiškai vairuojančių automobilių mieste (visi valdomi tuo pačiu AI kodu) ir palaipsniui padidinome iki, tarkime, 500 savarankiškai vairuojančių automobilių (visi valdomi tuo pačiu AI kodu). Kadangi visus tuos penkis šimtus savarankiškai vairuojančių automobilių valdo tas pats dirbtinis intelektas, jiems atitinkamai taikomas tas pats išvestinis paklaidas ir nelygybė, įterpta į AI.

Šiuo atžvilgiu mastelio keitimas mums kenkia.

Antrasis pavyzdys apima AI nustatymą, ar sustoti laukiantiems pėstiesiems, kurie neturi teisės kirsti gatvę.

Jūs neabejotinai važiavote ir susidūrėte su pėsčiaisiais, kurie laukė, kol galės pereiti gatvę, tačiau neturėjo tam teisės. Tai reiškė, kad turite teisę nuspręsti, ar sustoti ir leisti jiems pereiti. Galite tęsti neleisdami jiems kirsti ir vis tiek visiškai laikytis teisėtų vairavimo taisyklių.

Tyrimai, kaip žmonės vairuotojai nusprendžia sustoti ar nesustoti tokiems pėstiesiems, rodo, kad kartais vairuotojai pasirenka remdamiesi nepalankiu šališkumu. Vairuotojas žmogus gali pažvelgti į pėsčiąjį ir nuspręsti nesustoti, net jei būtų sustojęs, jei pėsčiojo išvaizda būtų kitokia, pavyzdžiui, dėl rasės ar lyties. Aš tai išnagrinėjau adresu nuoroda čia.

Įsivaizduokite, kad dirbtinio intelekto pagrindu veikiantys automobiliai yra užprogramuoti spręsti klausimą, ar sustoti, ar nesustoti pėstiesiems, kurie neturi teisės pirmumo. Štai kaip AI kūrėjai nusprendė užprogramuoti šią užduotį. Jie rinko duomenis iš miestelio vaizdo kamerų, kurios yra visame mieste. Duomenys rodo vairuotojus žmones, kurie sustoja pirmumo teisės neturintiems pėstiesiems ir nesustojančius žmones. Visa tai surenkama į didelį duomenų rinkinį.

Naudojant mašininį mokymąsi ir gilųjį mokymąsi, duomenys modeliuojami skaičiuojant. Tada dirbtinio intelekto sistema naudoja šį modelį, kad nuspręstų, kada sustoti ar nesustoti. Paprastai manoma, kad nesvarbu, ką sudarytų vietiniai papročiai, dirbtinis intelektas taip nukreips savarankiškai vairuojantį automobilį.

Miesto vadovų ir gyventojų nuostabai, AI akivaizdžiai nusprendė sustoti arba nesustoti, atsižvelgdamas į pėsčiojo išvaizdą, įskaitant rasę ir lytį. Savaime važiuojančio automobilio jutikliai nuskenuotų laukiantį pėsčiąjį, pateiktų šiuos duomenis į ML/DL modelį, o modelis išsiųstų į AI – sustoti ar tęsti. Deja, mieste jau buvo daug žmonių vairuotojų šališkumo šiuo atžvilgiu, o AI dabar imitavo tą patį.

Šis pavyzdys iliustruoja, kad dirbtinio intelekto sistema gali tik dubliuoti jau egzistuojančius nepalankius žmonių nusistatymus. Be to, tai daroma dideliu mastu. Bet kuris žmogus vairuotojas kartais galėjo būti išmokytas atlikti tokią nepalankią atrankos formą arba galbūt buvo asmeniškai pasirinktas tai daryti, tačiau tikėtina, kad dauguma vairuotojų to nedaro masiškai.

Priešingai, dirbtinio intelekto vairavimo sistema, naudojama vairuojant savarankiškai važiuojančius automobilius, gali bjauriai nuosekliai ir užtikrintai atlikti išvestinį šališkumą.

Išvada

Yra daugybė būdų, kaip pabandyti nekurti dirbtinio intelekto, kuris būtų nepalankus arba ilgainiui atskleidė šališkumą. Kiek įmanoma, idėja yra išsiaiškinti problemas prieš įjungiant aukštą pavarą ir padidinant mastelį. Tikėkimės, taip sakant, šališkumas neišnyks.

Tarkime, kad vienaip ar kitaip AI atsiras paklaidų. Įdiegę didžiulį AI mastą, negalėsite tiesiog daryti vienos iš tų dažnai skelbiamų technikų „uždegk ir pamiršk“ sąvokų. Turite stropiai sekti, ką daro AI, ir stengtis aptikti bet kokius nepageidaujamus šališkumus, kuriuos reikia ištaisyti.

Kaip minėta anksčiau, vienas iš būdų yra užtikrinti, kad dirbtinio intelekto kūrėjai žinotų AI etiką ir paskatintų juos suprogramuoti DI, kad būtų išvengta šių problemų. Kitas būdas – turėti patį DI savikontrolę dėl neetiško elgesio ir (arba) turėti kitą AI elementą, kuris stebi, ar kitose AI sistemose nėra galimai neetiško elgesio. Savo raštuose aprašiau daugybę kitų galimų sprendimų.

Kol kas paskutinė mintis. Pradėjus šią diskusiją Platono citata, galbūt derėtų diskursą užbaigti dar vienu gudriu Platono pasisakymu.

Platonas teigė, kad nėra jokios žalos kartoti gerą dalyką.

Lengvas dirbtinio intelekto mastas yra tikrai tinkama priemonė pasiekti tokį optimistišką siekį, kai dirbtinis intelektas yra AI for Good įvairovė. Mėgaujamės kartodami gerą dalyką. Kai AI yra AI For Bad ir kupini nepageidaujamų šališkumo ir nelygybės, galime pasikliauti Platono pastabomis ir teigti, kad blogo kartojimas daro didelę žalą.

Atidžiai įsiklausykime į išmintingus Platono žodžius ir atitinkamai kurkime savo AI.

Šaltinis: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- pasaulinio masto-ypač-kuriamas-per-gresia-visiškai-autonomines-sistemas/