Etiškas dirbtinis intelektas ambicingai tikisi, kad dirbtinis intelektas pats išmoks etiško elgesio, pavyzdžiui, dirbtinio intelekto atveju autonominiuose savarankiškai važiuojančiuose automobiliuose

Aristotelis garsiai pareiškė, kad lavinti protą nelavinant širdies nėra joks išsilavinimas.

Galite interpretuoti šią įžvalgią pastabą taip, kad būtų galima suprasti, kad mokymasis apie etiką ir moralinį elgesį yra labai svarbus žmonijai. Klasikinėse diskusijose apie prigimtį ir puoselėjimą reikia paklausti, kiek mūsų etinių papročių yra instinktyviai gimtoji, o kiek išmokstama per mūsų gyvenimo dienas. Maži vaikai yra atidūs bendražmogiškiems žmonėms ir, matyt, susigrąžina savo etinius pagrindus remdamiesi tuo, ką mato ir girdi. Tą patį galima pasakyti ir apie paauglius. Atvirų pažiūrų suaugusieji taip pat ir toliau prisitaikys ir tobulės savo etinio mąstymo srityje, patirti kasdienį pasaulį.

Žinoma, aiškus kažkieno mokymas apie etiką taip pat yra kursas. Žmonės privalo sužinoti apie etinius būdus lankydami pamokas šia tema arba galbūt lankydami juos dominančius renginius ir praktiką. Etinės vertybės gali būti aiškiai identifikuojamos ir dalijamos kaip priemonė padėti kitiems suformuluoti savo etikos struktūrą. Be to, etika gali būti subtiliai paslėpta istorijose ar kituose mokymo būduose, kurie galiausiai perteikia žinią apie tai, ką sudaro etiškas elgesys.

Atrodo, kad taip žmonės persmelkia etiką.

O kaip su dirbtiniu intelektu (AI)?

Suprantu, kad toks klausimas gali pasirodyti keistas. Mes tikrai tikimės, kad žmonės įtrauks etiką ir eis per gyvenimą su tam tikru moralės kodekso panašumu. Tai paprastas ir akivaizdus faktas. Kita vertus, atrodo, kad mašina ar kompiuteris netelpa į tą pačią atskaitos sistemą. Jūsų žarnyno reakcija gali būti tokia, kad AI manyti, kad tai yra etikos ir moralės kodeksų įsikūnijimas, yra tolima arba keista.

Geriausia, ką galime padaryti dėl AI, tai sukurti jį taip, kad jis nenukryptų nuo etiško elgesio. Dirbtinio intelekto kūrėjai ir tie, kurie naudoja dirbtinį intelektą, turi būti atsakingi už tai, kad suprojektuotas ir įdiegtas DI jau atitiktų etikos nuostatas. Taip sakant, dirbtinis intelektas jau turėtų būti nesugadintas ir pasiruošęs eiti kaip visiškai etiškai tinkamas sumanymas.

Tikrai būsite teisūs manydami, kad AI sistemos iš tikrųjų turėtų būti sukurtos taip, kad jau visiškai atitiktų etikos pagrindą. Visuomenė buvo labai sujaudinta, kai pirmą kartą buvo išleista naujausia AI sistemų banga, kuri parodė, kad mes išgyvename AI for Good. AI padėtų išspręsti daugelį sudėtingiausių pasaulio problemų. Technologijų pažanga buvo panaudota papildant žmogaus gebėjimus kognityvinėmis priemonėmis, tačiau leiskite man pabrėžti, kad dar neturime jokio jautraus DI ir nežinome, ar bus pasiektas jautrus AI.

Problema, kylanti dėl stulbinančio skubėjimo į pasaulį paleisti AI, pamažu atskleidė bjaurią AI dugną, žinomą kaip AI For Bad. Buvo daug antraščių apie AI sistemas, kuriose naudojamas algoritminis sprendimų priėmimas (ADM), kuriame gausu šališkumo ir nelygybės. Be to, didžioji dalis šiuolaikinio dirbtinio intelekto kenčia nuo skaidrumo stokos, paprastai yra nepaaiškinama, kaip paaiškinti skaičiavimo sprendimus, dažnai demonstruoja teisingumo stoką ir leido kai kuriems nukreipti savo žmogiškąją atskaitomybę rodant pirštais į DI.

Savo raštuose, įskaitant, plačiai aprašiau etinį AI ir AI etiką nuoroda čia ir nuoroda čia, Tik pavadinimas kelias.

Kaip gali būti AI For Bad jei laikytume teigiamą konstrukciją, kad dirbtinis intelektas turi būti sukurtas nuo pat pradžių, kad būtų išvengta neetiškų veiksmų?

Atsakymas yra daugialypis.

Pirma, daugelis dirbtinio intelekto kūrėjų ir kompanijų, užsiimančių dirbtiniu intelektu, patys nežino, kaip svarbu formuoti savo dirbtinį intelektą taip, kad jie neviršytų etikos ribų. Ši koncepcija visai nėra jų radare. Vilionės greitai užsidirbti pinigų verčia kai kuriuos siekti bet kokių laukinių dirbtinio intelekto idėjų, kurias jie nori sąmoningai sukurti. Nereikia išsiaiškinti jokių etinių dalykų. Tiesiog sukurkite AI ir pradėkite jį.

Antra, yra tokių, kurie kuria dirbtinį intelektą, kurie pagražina aiškų supratimą apie etines pasekmes, tačiau jie atvirai sumenkina arba iš dalies nepaiso etinio AI sumetimų. Viena iš bendrų perspektyvų yra klasikinė technikos mantra, kuria siekiama greitai ir dažnai žlugti. Tiesiog kartokite, kol viskas, tikimasi, tinkamai išsispręs. Deja, tikimybė, kad sistemingai ir apgalvotai bus įtraukta dirbtinio intelekto etika į šias greitas AI pastangas, yra labai menka. Aš aptariu poreikį stiprinti lyderystę etinio AI srityje nuoroda čia.

Trečia, yra daug miglotų, kokių etinių apsauginių turėklų reikėtų atsižvelgti kuriant AI. Žinoma, šiais laikais yra daug AI etikos gairių, žr. mano aprėptį adresu nuoroda čia, nors šiuos patogius teorinius nurodymus sunku būtinai paversti konkrečios kuriamos AI sistemos specifika. Nurodžiau, kad pamažu atsiras AI kūrimo įrankiai ir metodikos, apimančios etišką AI kodavimo praktiką, padedančios panaikinti atotrūkį tarp abstrakčių aspektų ir patarlių „guberis atitinka kelią“ aspektų.

Ketvirta, pabrėždami čia, mes išnagrinėjame paveiktą AI atvejį, kuris net jei iš pradžių buvo sudarytas neperžengiant etinių ribų, vėliau, naudojant, vingiuoja už numanomų etiškai užkoduotų parametrų.

Turime tai išpakuoti.

Didžioji dalis šiuolaikinio dirbtinio intelekto naudoja mašininį mokymąsi (ML) ir gilųjį mokymąsi (DL). Tai yra skaičiavimo modelių derinimo būdai ir technologijos. Paprastai idėja yra ta, kad jūs renkate daug svarbių duomenų, kad ir ką turėtų daryti dirbtinis intelektas, įvedate tuos duomenis į pasirinktą skaičiavimo šablonų derintuvą, o modelių derinimas matematiškai bando rasti naudingų šablonų. Atkreipkite dėmesį, kad šis AI nėra nuovokus (kuris, vėlgi, tokio dalyko dar neegzistuoja). Taip pat nėra jokių sveiko proto samprotavimų. Visa tai yra matematika ir skaičiavimai.

Gali būti, kad į ML/DL įvesti duomenys jau yra užkrėsti šališkumo ir nelygybės. Tokiu atveju yra tikimybė, kad skaičiavimo modelio atitikimas tik imituos tuos pačius polinkius. Jei pateikiate duomenis, kurie teikia pirmenybę vienai rasei, o ne kitai, arba vienai lyčiai, yra didelė tikimybė, kad modelio atitikimas bus aptiktas.

Didelė tokio užfiksavimo problema yra ta, kad mums gali būti sunku suprasti, kad modeliai yra pagrįsti šiuo duomenų aspektu. Dėl sudėtingos ir sudėtingos matematikos tokių rastų modelių atsiradimas gali būti gana problemiškas. Netgi AI išbandymas nebūtinai atskleis šias tendencijas, priklausomai nuo taikomų testų diapazono ir gylio.

Taigi, tarkime, kad sukūrėte dirbtinio intelekto sistemą ir atlikote namų darbus, pirmiausia bandydami nenaudoti duomenų, kurie turėjo išankstinį šališkumą. Po to, kai buvo atliktas mašininis mokymasis ir gilusis mokymasis, patikrinote rezultatus, kad pamatytumėte, ar kažkaip neatsirado šališkumo ar nelygybės. Tarkime, kad jūs negalite rasti tokių nepalankių polinkių.

Viskas, dabar dega žalia šviesa eiti į priekį ir pradėti naudoti AI. Žmonės pradės naudoti AI ir greičiausiai manys, kad tai etiškai tinkama. Kūrėjai taip pat mano. Kompanija, kurianti AI, mano taip. Išeiname visi.

Štai kas gali nutikti.

Tikėtina, kad suaktyvinta nukrypimų nuokrypis, kuris nebuvo rastas pirminiuose duomenyse ir kuris nebuvo užfiksuotas atliekant AI testavimą. Galbūt taip nutinka tik retai. Galite patikėti, kad kol tai reta, viskas gerai. Vis dėlto abejoju, ar tie, kurie yra pažeidžiami minėto šališkumo, nori matyti dalykus taip. Drįstu teigti, kad dirbtinio intelekto sistema ir tie, kurie ją suformulavo, susidurs su pasekmėmis teisiniuose teismuose arba neribotame visuomenės nuomonės teisme.

Kitas variantas yra patarlė paimti colį ir sugriebti mylią. Iš pradžių užuomazga gali būti nedidelė. Naudojant AI, DI galėjo būti sukurtas taip, kad pasikeistų, kai viskas vyksta. Toks „mokymasis“ arba „savarankiškas mokymasis“ gali būti labai naudingas. Vietoj to, kad žmogaus dirbtinio intelekto kūrėjai nereikalautų nuolat keisti ir koreguoti AI sistemą, dirbtinis intelektas yra sukurtas tai daryti pats. Jokių vėlavimų, brangios darbo jėgos ir pan.

Neigiama šio patogaus savaiminio reguliavimo funkcija yra ta, kad naudojant AI rašalas gali būti vis didesnis ir didesnis. Nors šališkumas galėjo būti siaurame kampe, dabar jam suteikta erdvė plėstis. AI neatrodo, kad tai yra „neteisinga“ ir tik skaičiavimo būdu išplečia tai, kas atrodo veikianti.

Jei dėl to plaukai atsistoja ant galvos, turėsite atsisėsti kitam variantui.

Tarkime, kad šališkumo nebuvo nuo pat pradžių, ir mes visiškai pagrįstai tikime, kad dirbtinis intelektas yra visiškai be šališkumo. Mums arba pasisekė, arba galbūt sistemingai įsitikinome, kad duomenyse nebuvo jokių paklaidų ir neatsirado dėl skaičiavimo modelio atitikimo. Nepaisant šio palengvėjimo atodūsio, AI leidžiama koreguoti jį naudojant. Pandoros durys atsidaro ir dirbtinis intelektas pasirenka skaičiavimo būdu nukreipti į paklaidas, kurios randamos atliekant bet kokius AI veiksmus.

Naujai atrastas šališkumas įsiskverbia į AI, ir niekas nėra ypač išmintingesnis, kad taip atsitiko. Taip, mes sukūrėme monstrą, tikrą Frankenšteiną.

Kaip galima užkirsti kelią šiam atsiradimui arba bent jau jį pažymėti?

Vienas iš būdų, kuris vis labiau populiarėja, yra į AI įterpti etikos gavimo komponentą. AI sukurtas taip, kad jame būtų etinių AI elementų. Tada tie elementai stebi arba stebi likusį AI, kol AI laikui bėgant prisitaiko. Kai atrodo, kad dirbtinis intelektas peržengė užprogramuotas etines nuostatas, etiškas AI bando atlikti šiuos pakeitimus arba įspėja kūrėjus, kad kažkas ne taip.

Galite pabandyti suprogramuoti šį etiško AI priežiūros pajėgumą ir tikėtis, kad jis vyraus, kol bus naudojamas AI.

Kitas šiek tiek prieštaringas kampas būtų naudoti mašininį mokymąsi ir gilųjį mokymąsi, siekiant išmokyti etinius AI aspektus į AI sistemą.

Pasakykite, ką?

Taip, galbūt netradicinė koncepcija yra ta, kad vietoj žmogaus programuotojo, kuris tiesiogiai koduoja AI etikos priesakų rinkinį, AI yra suformuota taip, kad bandytų juos „išmokti“. Prisiminkite, kad trumpai pažymėjau, kad ML/DL naudojimas paprastai priklauso nuo duomenų įvedimo į algoritmus ir įvyksta skaičiavimo modelio suderinimas. Milijono dolerių vertės klausimas yra tas, ar galime naudoti tą patį mechanizmą etinėms vertybėms įterpti į AI sistemą.

Manau, kad galėtumėte tai palyginti su mano diskusija pradžioje apie tai, kaip žmonės suvokia etikos principus, tačiau prašau neantropomorfizuoti šiandieninio dirbtinio intelekto kaip panašaus į žmogaus mąstymą (tai nėra, ir aš netrukus pakartosiu šį raginimą). Dirbtinis intelektas gali būti „įgimtas“ užprogramuotas pagal etinius AI nurodymus. Arba AI galėtų „išmokti“ etinių AI nuostatų. Žinoma, galite padaryti abu, ką aš aprašiau kitur, žr nuoroda čia.

Skirkite šiek tiek laiko apmąstyti, atrodytų, stulbinančią koncepciją, kad dirbtinis intelektas gali „išmokti“ etikos ir, ko gero, laikytis etiško elgesio.

Šie tyrėjai naudoja dirbtinio intelekto sistemos, kuri nustato pageidaujamą temperatūrą namuose, pavyzdį, kad parodytų, kaip tai gali veikti: „Jis iš pradžių vos savaitę „stebėjo“ žmonių elgesį įvairiuose namų ūkiuose ir padarė išvadas apie jų pageidavimus. Tada jis naudojo judesio aptikimo jutiklį, kad nustatytų, ar kas nors yra namuose. Kai namas buvo tuščias, išmanusis termostatas perėjo į didelio energijos taupymo režimą; kai žmonės buvo namuose, termostatas reguliavo temperatūrą, kad atitiktų jų pageidavimus. Šis termostatas aiškiai atitinka du etikos roboto reikalavimus, nors ir labai paprastą. Ji įvertina žmonių pageidavimus ir primeta juos šildymo ir vėsinimo sistemos valdikliams. Galima paklausti, ką tai turi bendro su socialinėmis moralinėmis vertybėmis. Šis termostatas leidžia žmonėms, kurių vertės skiriasi, nustatyti pageidaujamus temperatūros nustatymus. Namo gyventojams nereikia kiekvieną dieną atvažiuojant ir išeinant perstatyti termostato. Šis paprastas etikos robotas taip pat sumažina bendrą bendruomenės energijos pėdsaką“ (pagal Amitai Etzioni ir Oren Etzioni dokumentą „AI Assisted Ethics“ tome apie Etika ir informacinės technologijos).

Prieš gilindamasis į DI, kuris „išmoksta“ etiško elgesio, vingius, norėčiau pasakyti daugiau apie AI statusą.

AI gali būti sudaryta iš šių galimų būsenų:

1. Nejautrus paprastas senas šių dienų DI

2. Žmogaus kokybės jautrus AI (kol kas to neturime)

3. Itin protingas jautrus AI (daugiau nei 2)

Aš sutelksiu dėmesį į esamą būseną, kuri yra nejautri paprastas senas AI. Daugelis to, ką galite perskaityti apie etišką AI, kartais apima jausmingą AI, todėl yra labai spekuliatyvūs. Sakau, kad tai spekuliatyvu, nes niekas negali prisegti asilo uodegos, koks bus jautrus AI. Dar toliau už žmogiškosios kokybės jautraus AI srities yra labai apgailėtinas itin intelektualusis DI. Yra daug mokslinės fantastikos istorijų ir nuogąstavimų apie tai, kaip tie AI skoniai gali nuspręsti pavergti žmoniją, o gal tiesiog sunaikinti mus visus. Tai žinoma kaip egzistencinė AI rizika. Kartais ši dilema taip pat įvardijama kaip katastrofiška AI rizika.

Kai kurie teigia, kad mums gali būti gerai, jei DI išlaikysime nejautrią seną DI, kokį turime šiandien. Tarkime, kad negalime pasiekti jautraus AI. Įsivaizduokite, kad ir kaip stengiamės sukurti jausmingą dirbtinį intelektą, mums tai nepavyksta. Taip pat diskusijų sumetimais manykite, kad jautrus AI neatsiranda dėl kažkokio paslaptingo spontaniško proceso.

Argi nesame saugūs, kad bus naudojamas šis mažesnio kalibro DI, kuris yra įsivaizduojama vienintelė įmanoma DI rūšis?

Ne visai.

Tikėtina, kad gali kilti tos pačios bendros problemos. Nesakau, kad dirbtinis intelektas „galvoja“ norėdamas mus sunaikinti. Ne, paprastas nejausmingas AI yra tiesiog pastatytas į galios pozicijas, dėl kurių mes įklimpome į savęs naikinimą. Pavyzdžiui, į masinio naikinimo ginklus įtraukiame nejautrią AI. Šie autonominiai ginklai nesugeba mąstyti. Tuo pačiu metu žmonės nėra visiškai įtraukti. Dėl to dirbtinis intelektas, kaip autonominio automatizavimo forma, netyčia sukelia katastrofiškų pasekmių, arba dėl žmogaus įsakymo tai padaryti, arba dėl klaidos ar klaidos, arba dėl įdėto blogio, arba dėl savęs reguliavimo, dėl kurio viskas susilpnina. bjaurus kelias ir pan.

Norėčiau teigti, kad AI etikos problema egzistuoja visose trijose iš tų AI numatytų būsenų, t. y. turime DI etinių problemų su nejautriu senu DI ir su juntančiu DI, kuris yra tik žmogaus lygmuo, arba su ištemptu DI, kuris pasiekia. pripažintas superintelekto lygis.

Atsižvelgdami į šį blaivų pareiškimą, galime neabejotinai diskutuoti apie etinių problemų mastą ir sunkumus kiekviename iš atitinkamų AI lygmenų. Įprasta nuomonė yra tokia, kad dirbtinio intelekto etika yra mažiau neįveikiama nejaučiame DI, sunkesnė esant jausmingam žmogui lygiu DI, ir tikras galvos draskymas jautriame itin protingame DI etape.

Kuo geresnis dirbtinis intelektas, tuo blogėja AI etikos problema.

Galbūt tai yra nepažeidžiamas gamtos dėsnis.

Grįžtant prie dėmesio šiandieniniam AI, bandymas priversti AI „išmokti“ etiško elgesio naudojant šiuolaikinį mašininį mokymąsi ir gilųjį mokymąsi yra kupinas rūpesčių ir sudėtingų problemų. Tarkime, AI nesugeba surinkti norimų etinių nuostatų? Kaip mes tikrai žinosime, kad tai darydami susvyravo? Be to, ar kitos AI sistemos dalys gali nepaisyti nustatytų etinių konstrukcijų? Pridėkite tai, kad jei AI koreguojasi skrydžio metu, koregavimai gali susilpninti etinius aspektus arba netyčia juos visiškai užgožti.

Dar blogiau, kad „mokymasis“ gali paskatinti AI nusileisti ant tikrai neetiško elgesio. Nors manėme, kad elgėmės teisingai, skatindami dirbtinį intelektą būti etišku, tačiau paaiškėjo, kad dirbtinis intelektas nuslydo į modelio atitikimą neetiškais aspektais. Kalbėkite apie šaudymą savo koja, tai gali atsitikti.

Šiame šios diskusijos etape galiu lažintis, kad norėtumėte papildomų realaus pasaulio pavyzdžių, kurie galėtų pabrėžti, kaip AI etikos „mokymasis“ gali būti taikomas šiandieniniam AI (išskyrus skanų termostato pavyzdžio anonsą).

Malonu, kad paklausei.

Yra ypatingas ir neabejotinai populiarus pavyzdžių rinkinys, kuris man prie širdies. Matote, kaip dirbtinio intelekto, įskaitant etines ir teisines pasekmes, ekspertas, manęs dažnai prašoma pateikti realių pavyzdžių, atskleidžiančių DI etikos dilemas, kad būtų galima lengviau suvokti šiek tiek teorinį temos pobūdį. Viena iš įdomiausių sričių, ryškiai pristatančių šią etišką AI kliūtį, yra dirbtinio intelekto pagrindu sukurtų tikrų savaeigių automobilių atsiradimas. Tai bus patogus naudojimo atvejis arba pavyzdys plačioms diskusijoms šia tema.

Štai vertas dėmesio klausimas, kurį verta apsvarstyti: Ar dirbtinio intelekto pagrindu sukurtų tikrų savarankiškai vairuojančių automobilių atsiradimas ką nors parodo, kad AI gali „išmokti“ etinių dirbtinio intelekto nuostatų, ir jei taip, ką tai parodo?

Leiskite man akimirką išpakuoti klausimą.

Pirma, atkreipkite dėmesį, kad tikrai savarankiškai vairuojančiame automobilyje nėra žmogaus vairuotojo. Atminkite, kad tikri savarankiškai važiuojantys automobiliai yra valdomi naudojant AI vairavimo sistemą. Nereikia, kad prie vairo būtų vairuotojas žmogus, taip pat nėra numatyta, kad žmogus galėtų vairuoti transporto priemonę. Išsamią ir nuolatinę informaciją apie autonomines transporto priemones (AV) ir ypač apie savarankiškai važiuojančius automobilius žr. nuoroda čia.

Norėčiau dar labiau paaiškinti, ką turiu omenyje, kai kalbu apie tikrus savarankiškai vairuojančius automobilius.

Suprasti savarankiškų automobilių lygį

Paaiškinimas: tikri savaeigiai automobiliai yra tie, kad dirbtinis intelektas visiškai valdo automobilį ir vairavimo užduotyje nėra jokios žmogaus pagalbos.

Šios transporto priemonės be vairuotojo laikomos 4 ir 5 lygiais (žr. mano paaiškinimą adresu šią nuorodą čia), o automobilis, kurio vairuotojas turi pasidalyti vairavimo pastangomis, paprastai laikomas 2 arba 3 lygiu. Automobiliai, kurie kartu atlieka vairavimo užduotį, apibūdinami kaip pusiau savarankiški ir paprastai juose yra įvairių automatiniai priedai, vadinami ADAS (išplėstinės vairuotojo pagalbos sistemos).

Dar nėra tikro 5 lygio lygio savarankiškai važiuojančio automobilio, kurio mes net nežinome, ar tai bus įmanoma pasiekti, ir nei kiek laiko prireiks jo nuvažiavimui.

Tuo tarpu 4 lygio pastangos pamažu bando įgyti šiek tiek traukos atlikdami labai siaurus ir selektyvius viešųjų kelių bandymus, nors kyla ginčų dėl to, ar šis bandymas turėtų būti leidžiamas per se (mes visi esame gyvybės ar mirties jūrų kiaulytės eksperimente vyksta mūsų greitkeliuose ir pakelėse, kai kurie tvirtina, žr. mano aprėptį adresu šią nuorodą čia).

Kadangi pusiau autonominiams automobiliams reikalingas žmogiškas vairuotojas, šių tipų automobiliai bus žymiai kitokie nei vairuojant įprastas transporto priemones, todėl apie juos šioje temoje nėra daug naujų, tačiau, kaip pamatysite po akimirkos kiti taškai yra paprastai taikomi).

Dėl pusiau autonominių automobilių svarbu, kad visuomenė būtų perspėta apie nerimą keliantį aspektą, kuris pastaruoju metu iškyla, būtent, kad nepaisant tų vairuotojų, kurie nuolat skelbia vaizdo įrašus apie tai, kaip jie užmiega prie 2 ar 3 lygio automobilių vairo , visi turime vengti klaidinti manydami, kad vairuotojas, vairuodamas pusiau autonominį automobilį, gali atitraukti dėmesį nuo vairavimo užduoties.

Jūs esate atsakingas už transporto priemonės vairavimo veiksmus, nepaisant to, kiek automatikos gali būti išmesta į 2 ar 3 lygį.

Savarankiškai važiuojantys automobiliai ir etiškas dirbtinio intelekto skiepijimas

Tikrosios 4 ir 5 lygio savarankiškai vairuojančioms transporto priemonėms vairuotojo užduotis nebus skirta žmonėms.

Visi keleiviai bus keleiviai.

AI vairuoja.

Vienas aspektas, kurį reikia nedelsiant aptarti, reiškia, kad dirbtinis intelektas, dalyvaujantis šiandieninėse dirbtinio intelekto vairavimo sistemose, nėra jausmingas. Kitaip tariant, dirbtinis intelektas yra kompiuterinio programavimo ir algoritmų kolektyvas, kuris, be abejo, negali samprotauti taip, kaip gali žmonės.

Kodėl taip pabrėžiama, kad AI nėra jautrus?

Nes noriu pabrėžti, kad aptardamas dirbtinio intelekto vairavimo sistemos vaidmenį, aš AI nepriskiriu žmogaus savybių. Turėkite omenyje, kad šiomis dienomis yra nuolatinis ir pavojingas polinkis antropomorfizuoti AI. Iš esmės žmonės priskiria žmonėms panašų jausmą šiandieniniam dirbtiniam intelektui, nepaisant neginčijamo ir neginčijamo fakto, kad tokio AI dar nėra.

Patikslinę galite įsivaizduoti, kad dirbtinio intelekto vairavimo sistema savaime kažkaip „neišmanys“ vairavimo aspektų. Vairavimą ir visa tai, ką tai reiškia, reikės užprogramuoti kaip savarankiško automobilio techninės ir programinės įrangos dalį.

Pasinerkime į begalę aspektų, kurie yra svarbūs šia tema.

Pirma, svarbu suprasti, kad ne visi dirbtinio intelekto automobiliai yra vienodi. Kiekvienas automobilių gamintojas ir savarankiškai vairuojančių technologijų įmonė laikosi savo požiūrio į savaeigių automobilių kūrimą. Todėl sunku pateikti plačius teiginius apie tai, ką AI vairavimo sistemos darys ar ne.

Be to, kai teigiama, kad dirbtinio intelekto vairavimo sistema neatlieka tam tikro dalyko, vėliau tai gali aplenkti kūrėjai, kurie iš tikrųjų užprogramuoja kompiuterį tai padaryti. Žingsnis po žingsnio AI vairavimo sistemos palaipsniui tobulinamos ir plečiamos. Esamo apribojimo šiandien gali nebelikti būsimoje iteracijoje ar sistemos versijoje.

Aš tikiu, kad tai suteikia pakankamai litanijos įspėjimų, kuriais grindžiamas tai, ką ketinu pasakyti.

Dabar esame pasiruošę giliai pasinerti į savarankiškai važiuojančius automobilius ir etiško AI galimybes, o tai reiškia, kad galime priversti dirbtinį intelektą „išmokti“ apie etišką elgesį.

Panaudokime lengvai suprantamą pavyzdį. Dirbtinio intelekto pagrindu veikiantis savarankiškai vairuojamas automobilis važinėja jūsų kaimynystės gatvėse ir atrodo, kad važiuoja saugiai. Iš pradžių skyrėte ypatingą dėmesį kiekvieną kartą, kai pavykdavo užmesti akį į savaeigį automobilį. Autonominė transporto priemonė išsiskyrė savo elektroninių jutiklių stovu, kuriame buvo vaizdo kameros, radarai, LIDAR įrenginiai ir panašiai. Po daugelio savaičių savaeigio automobilio važinėjimo po jūsų bendruomenę dabar vos pastebite. Jūsų nuomone, tai tik dar vienas automobilis jau judriuose viešuosiuose keliuose.

Kad nepagalvotumėte, kad neįmanoma ar neįtikėtina susipažinti su savaeigiais automobiliais, aš dažnai rašiau apie tai, kaip vietos, kurios patenka į savarankiško automobilio bandymus, pamažu priprato prie išpuoselėtų transporto priemonių. žiūrėkite mano analizę adresu šią nuorodą čia. Daugelis vietinių ilgainiui perėjo nuo burna žiojančio pasižavėjusio žvilgčiojimo į dabar skleidžiantį platų nuobodulio žiovumą, kad pamatytų tuos vingiuojančius savarankiškai važiuojančius automobilius.

Tikriausiai pagrindinė priežastis, kodėl jie gali pastebėti autonomines transporto priemones, yra susierzinimo ir susierzinimo veiksnys. AI vairavimo sistemos užtikrina, kad automobiliai laikytųsi visų greičio apribojimų ir kelių eismo taisyklių. Įspūdingi vairuotojai, važinėjantys tradiciniais žmonių varomais automobiliais, kartais erzina, kai užstrigo už griežtai įstatymų paisančių dirbtinio intelekto savarankiškų automobilių.

Prie to mums visiems gali tekti priprasti, teisingai ar neteisingai.

Grįžkime prie mūsų pasakos. Įsivaizduokite, kad vieną dieną jūsų mieste ar miestelyje važiuoja savarankiškai važiuojantis automobilis ir atsiduria situacija, kai pėsčiasis laukia, kol eis per kelią. Tarkime, kad pėstysis pats savaime neturi pirmumo teisės. Žmogaus vairuojamas automobilis gali važiuoti pro pėsčiąjį ir tai daryti visiškai teisėtai. Taip pat AI vairavimo sistema teisėtai gali praeiti pro laukiantį pėsčiąjį.

Vairuotojas gali savo nuožiūra nuspręsti, ar sustoti ir leisti pėsčiąjį eiti per gatvę, nesvarbu, ar jis vairuotojas žmogus, ar AI vairavimo sistema.

Esu tikras, kad su tokia situacija susidūrėte daugybę kartų. Galbūt skubate, todėl nesustojate leisti pėsčiojo. Kitais atvejais turite daug laiko pasiekti savo tikslą, todėl pasirenkate sustoti ir leisti laukiančiam asmeniui eiti per gatvę. Jūsų nuotaika ir konkrečios aplinkybės lemia, ką pasirinksite daryti.

Niekas šiame scenarijuje neatrodo neįprasta ar erzinanti.

Prieš nagrinėjant AI dalykų pusę, jums gali būti įdomu sužinoti, kad šis konkretus diskrecijos aspektas, leidžiantis pėstiesiems kirsti gatvę, buvo atidžiai ištirtas. Tyrėjai nustatė, kad kartais vairuotojo pasirinkimas gali priklausyti nuo rasinių ar lyčių nusistatymų. Žmogus vairuotojas gali padidinti laukiančio pėsčiojo dydį ir pasirinkti leisti asmeniui pereiti, kaip atrodo, remdamasis būdingu vairuotojo šališkumu. Ar vairuotojas net suvokia, kad tai daro, yra nuolatinio tyrimo klausimas. Žiūrėkite mano aprėptį adresu šią nuorodą čia.

Sudariau pagrindą mūsų tyrinėjimui, ką AI vairavimo sistema galėtų padaryti pėsčiųjų perėjoje.

Įprastas AI programavimas gali reikšti, kad AI kūrėjai nusprendžia visada sustabdyti AI vairavimo sistemą ir leisti pėsčiajam pereiti. Atrodytų, kad tai būtų etiškai tinkamas arba pilietiškas dalykas. Savaeigis automobilis pasiduoda laukiančiam žmogui, kuris nori pereiti gatvę.

Drįstu teigti, kad jei būtumėte keleivis savarankiškai vairuojančiame automobilyje, o dirbtinis intelektas visada sustabdytų visus savo nuožiūra laukiančius pėsčiuosius, galite išprotėti. Jūsų greita kelionė į bakalėjos parduotuvę gali užtrukti daug kartų ilgiau. Taip pat atminkite, kad mes nekalbame apie pėsčiuosius, kurie turi pamaldų juridinę pirmumo teisę, nes tokiais atvejais tikriausiai jau būtų užprogramuotas AI visada leisti. Mes sutelkiame dėmesį tik į išskirtines aplinkybes.

Yra ir daugiau minusų šiame pareiškime, kad visada sustoti, kad pėstieji galėtų laisvai pereiti gatvę.

Tie, kurie gamina ir kuria dirbtinio intelekto pagrindu veikiančius savarankiškai važiuojančius automobilius, nori, kad jais važinėtų žmonės. Idėja yra tokia, kad turėdami savarankiškai vairuojančius automobilius galėtume sumažinti kasmetinių automobilių avarijų, kurios šiuo metu vien Jungtinėse Valstijose kasmet miršta apie 40,000 2.5 ir sužeistų XNUMX mln., skaičių. Žiūrėkite mano statistikos rinkinį adresu šią nuorodą čia. Be šio gerbiamo visuomeninio tikslo, automobilių ir savarankiškai vairuojančių technologijų kūrėjai taip pat tikisi užsidirbti pinigų iš savo AI kūrinių, žinoma.

Aš tai iškeliu, nes žmonės gali nuspręsti nevažinėti savarankiškai vairuojančiais automobiliais, jei dirbtinio intelekto vairavimo sistema daro tai, kas be reikalo galų gale atidėlioja keliones. Kiekvienas kasdienis žmogus samprotauja, kad pasirinkus žmogų vairuotoją, kelionė gali būti greitesnė, o pasirinkus AI savarankiškai vairuojantį automobilį, jis gali atsidurti labai žemoje vietoje. Tai savo ruožtu reikštų, kad neturėtume taip, kaip norima, sumažintų automobilių avarijų skaičių ir kad gamintojai galėtų manyti, kad jų gaminiai yra nuostolingi.

Turint omenyje šį argumentų rinkinį, jums gali kilti mintis, kad dirbtinis intelektas niekada neturėtų sustoti, kai įvyksta atsitiktinis atvejis, kai pėsčiasis nori pereiti gatvę. Tiesiog užprogramuokite dirbtinio intelekto vairavimo sistemą, kad ji darytų viską, kas yra griežtai teisėta. Jei nėra teisinio reikalavimo leisti pėsčiąjį, tai laukiančiam pėstiesiems sunkiai sekasi. Galbūt asmuo turėtų nuvykti į perėjimo punktą, kuris sudarytų teisinį pagrindą dirbtiniam intelektui sustabdyti savarankiškai vairuojantį automobilį.

Ar galite įsivaizduoti, koks pasipiktinimas dėl to?

Žmonės jūsų mieste ar mieste pamažu atranda, kad dirbtinis intelektas valdantys automobiliai niekada neleis pėstiesiems pervažiuoti savo nuožiūra. Tas velniškai įnirtingas AI! Atrodo, tarsi dirbtinis intelektas nykščiu smogia į žmones. Netinkamai išauklėtas niekšelis iš nenaudingos automatikos. Be to, įsivaizduokite, kad yra dokumentuotų aplinkybių, kai pėstiesiems žūtbūt reikia kirsti, ir AI visai nesustos.

Tuo tarpu žmonės vairuotojai noriai sustodavo, kad leisdami tiems „beviltiškiems“ žmonėms saugiai pereiti gatvę.

Dėl šio pasipiktinimo dirbtinio intelekto automobiliai nebepriimami jūsų vietovės gatvėse ir aplinkkeliuose. Miesto vadovų išduoti leidimai panaikinami. Nedėkingų žvėrelių pašalinimas iš mūsų kelių yra vokalinis klegesys.

Gerai, atrodo, kad esame tarp uolos ir sunkios vietos. AI ne visada turėtų leisti laisvai pasirenkamam pėsčiajam pereiti (ne visada sustoti). AI ne visada turėtų trukdyti laisvai pasirenkamam pėsčiajam pereiti (ne visada priartinkite). Ką daryti?

Akivaizdus atsakymas būtų užprogramuoti AI veikti savo nuožiūra.

Prašau jūsų pagalvoti apie ADM (algoritminį sprendimų priėmimą), kurį tai turėtų sudaryti. Ar AI bandys aptikti pėsčiojo prigimtį ir panaudoti įžvelgtas savybes kaip pagrindą nuspręsti, ar sustabdyti savaeigį automobilį, ar ne? Galbūt ką nors vyresnės išvaizdos yra būdas pasirinkti. Bet ar ta diskriminacija dėl amžiaus atsiranda? Ir taip toliau.

Galbūt AI vairavimo sistema užprogramuota sustoti šviesiu paros metu ir niekada nesustoti naktį. Gali būti, kad logika yra ta, kad savaeigiame automobilyje vairuotojams yra saugiau, kai autonominė transporto priemonė sustoja dienos metu, bet ne niūresnėmis vakaro valandomis.

Tai gal skamba protingai. Dalis problemos bus pėsčiųjų lūkesčiai. Štai ką aš turiu omenyje. Pėstieji mato, kaip dirbtinis intelektas važiuojantys automobiliai sustoja savo nuožiūra perėjoms, kurios vyksta dienos šviesoje. Pėstieji nežino, kokiais kriterijais vadovaujasi AI, priimdamas sprendimą sustoti. Kai kurie pėstieji daro prielaidą, kad AI visada sustos (nesuvokdami, kad dienos šviesa ir naktis yra tikrasis lemiamas veiksnys). Dėl to tie pėstieji, kurie tiki, kad savarankiškai važiuojantis automobilis visada sustos, rizikuos ir pradės kirsti, kai dirbtinio intelekto vairavimo sistema visai nesiekia sustoti (tai greičiausiai AI sustotų, jei pėsčiasis įeina į gatvę, nors tai gali būti sudėtinga, o fizika gali neleisti dirbtiniam intelektui sustabdyti savarankiškai važiuojančio automobilio, kad nepatektų į iš pažiūros „klystantį“ pėsčiąjį).

Tarkime, kad dirbtinio intelekto kūrėjai ir įmonės, kuriančios ir parduodančios savarankiškai važiuojančius automobilius jūsų mieste, nežino, kaip šiuo klausimu patobulinti AI.

Jie nusprendžia „apmokyti“ AI pagal duomenis, surinktus iš visos vietos. Pasirodo, mieste yra daugybė kamerų, kurios užfiksavo automobilių atvažiavimus ir važiavimus visame miestelyje. Šie duomenys rodo daugybę atvejų, kai pėstieji nori pereiti gatvę savo nuožiūra. Visi duomenys įvedami į mašininio mokymosi ir giluminio mokymosi sistemą, kad būtų galima gauti tai, kas laikoma įprasta toje jurisdikcijoje.

Ar mokome dirbtinį intelektą, kad jis atliktų tai, ką reikia padaryti pagal vietinius etikos papročius?

Kitaip tariant, jei tam tikrame mieste būtų būdinga vietinė kultūra, labiau linkusi sustoti ir leisti savo nuožiūra pėstiesiems kirsti, kaip liudija žmogaus vairuotojo veiksmai, ML/DL potencialiai paimtų skaičiavimus pagal šį modelį. Tada dirbtinis intelektas būtų išmokytas daryti panašiai. Kitu kraštutinumu, jei žmonės vairuotojai retai sustoja, dirbtinis intelektas gali gauti tą „pamoką“ skaičiuodamas duomenų analizę. AI elgsis taip, kaip daro žmonės.

Teigiama, kad etiškas žmonių elgesys yra užfiksuotas duomenyse ir kad AI ketina taikyti tuos pačius etinius nurodymus skaičiavimo analize. Etikas apskritai tai apibūdintų kaip bendruomeninį požiūrį į etiką. Bendros bendruomenės vertybės atsispindi visos bendruomenės pastangose.

Tai gali atrodyti kaip puikus sprendimas.

Deja, yra daug spąstų.

Galbūt viena iš akivaizdžių problemų yra ta, kad žmonės vairuotojai jau gali turėti tam tikrą šališkumą, rinkdamiesi sustoti ar nesustoti (kaip minėta anksčiau). Tada AI bus šių šališkumo kopija. Ar norime, kad taip būtų?

Apsvarstykite kitą problemą. Tarkime, kad žmonės vairuotojai nesutinka su tuo, kaip veikia dirbtinio intelekto savarankiški automobiliai. Tiesiog todėl, kad žmonės vairuotojai buvo pasirengę sustoti, tai gali būti ne taip pat manoma apie savarankiškai važiuojančius automobilius. Gali būti, kad vairuotojus žmones erzina AI savarankiškai vairuojantys automobiliai, kurie nuolat sustoja savo nuožiūra turintiems pėstiesiems, nors tas pats nutinka ir vairuotojų rankomis, tačiau neatrodo, kad tai netrukdytų žmonių vairuotojams.

Be to, kad tai kelia nerimą, jūs taip pat galite įsivaizduoti, kad žmonės vairuotojai netyčia užsuks į galą savarankiškai važiuojančius automobilius. Jei žmogus vairuotojas nesitikėjo, kad savaeigis automobilis sustos prieš pėsčiąjį, o žmogaus vairuojamas automobilis yra tiesiai už savarankiškai važiuojančio automobilio, gali kilti didžiulis lūkesčių neatitikimas. AI vairavimo sistema sustabdo savarankiškai vairuojantį automobilį. Vairuotojas tokio veiksmo nenumatė. Vairuotojas žmogus atsitrenkia į savaeigį automobilį. Atsiranda sužalojimų ir galbūt mirtinų žmonių.

Sąmoningai nurodžiau žmonių žalos tikimybę.

Per gatvę einantis pėsčiasis iš pirmo žvilgsnio gali pasirodyti nereikšmingas klausimas. Atrodytų, kad niekas negali nukentėti, kad ir kurį metodą AI pasirinktų sustabdyti ar nesustoti. Negerai! Yra tikimybė, kad pėsčiasis bus partrenktas. Yra tikimybė, kad žmogaus vairuojamas automobilis įsirėš į savaeigį automobilį. Žmogaus vairuojamo automobilio vairuotojas ir keleiviai gali susižaloti. Savaeigio automobilio vairuotojai gali susižaloti. Lengvai numanomi papildomi galimos žalos žmonėms pakitimai.

Išvada

Kalbėdamas apie žalą žmonėms, pateiksiu dar kai ką, kad susimąstytumėte apie šią etinio AI mįslę.

Žiniasklaidoje buvo pranešta, kad vyras įvažiavo automobiliu į sankryžą ir tam užsidegė žalias šviesoforo signalas. Kitas žmogaus vairuojamas automobilis pasirinko važiuoti sankryžoje degant raudonam šviesoforo signalui ir neteisėtai bei nesaugiai nekliudomai įvažiavo į sankryžą, grasindamas partrenkti teisėtai važiuojantį automobilį.

Vairuotojas žurnalistams sakė, kad turėjo pasirinkti, ar nutrenkti automobilį, ar jis gali pasukti automobilį, kad išvengtų partrenkimo, tačiau netoliese buvo pėsčiųjų, o posūkis gali sukelti pavojų tiems žmonėms. Ką tu darytum? Galite nukentėti nuo šio gresiančio automobilio ir galbūt gyventi, kad papasakotumėte istoriją. Arba galite pabandyti išvengti smūgio, bet tuo tarpu galbūt partrenkti nekaltus pėsčiuosius.

Didelė dalis mūsų kasdienio vairavimo reikalauja tokių etiškai milžiniškų ir momentinių sprendimų. Aš tai ilgai aptariau, taip pat siejau šiuos vairavimo gyvybę ar mirtį sprendimus su garsiąja arba, kai kurie sako, liūdnai pagarsėjusia vežimėlio problema, žr. nuoroda čia.

Pagal šį scenarijų vairuotoją žmogų pakeiskite dirbtinio intelekto vairavimo sistema.

Ką norite, kad AI darytų?

Tai gluminantis klausimas.

Vienas iš būdų yra suprogramuoti dirbtinį intelektą taip, kad jis staigiai atliktų tiesioginį važiavimą tiesiai į priekį, taigi net nesvarsčius skaičiuojant kitas galimybes, pvz., nukrypimą nuo galimos avarijos. Tikėčiau, kad vairuotojai savarankiškai vairuojančiais automobiliais nusimins sužinoję, kad dirbtinis intelektas nebuvo sukurtas tam, kad padarytų ką nors kitą, išskyrus atmušimą. Galite tikėtis ieškinių ir triukšmo.

Kitas būdas būtų pabandyti suprogramuoti AI, kad būtų atsižvelgta į įvairias galimybes. Kas vis dėlto gali sukurti ADM, kuris nuspręs, kokiu keliu eis dirbtinio intelekto vairavimo sistema? Atrodytų, kad leisti dirbtinio intelekto kūrėjams patiems priimti tokius svarbius sprendimus kelia daug rūpesčių.

Galite pabandyti leisti dirbtiniam intelektui „pasimokyti“ iš žmogaus vairavimo duomenų, surinktų kasdieninėse eismo situacijose. Tai panašu į pėsčiųjų perėjos dilemą ir anksčiau pasiūlytą idėją panaudoti surinktus duomenis, kad dirbtinis intelektas galėtų išsiaiškinti, kokie atrodė vietiniai etiniai papročiai. Yra daug įspėjimų, pavyzdžiui, ar rasti ML / DL modeliai yra tinkami, ar ne, ir pan.

Taip pat iš anksto įspėjau, kad yra tikimybė, kad dirbtinis intelektas imsis galbūt neetiško elgesio, priklausomai nuo susijusių etinių papročių. Pavyzdžiui, tarkime, kad dirbtinis intelektas kažkaip nusileido pagal skaičiavimo modelį, kad visada būtų nukreiptas į pėsčiuosius, kai kitas automobilis grasina atsitrenkti į savarankiškai važiuojantį automobilį.

Oho, saugokitės pėsčiųjų, jūs būsite paruošti taikiniai.

Atėjo laikas uždaryti diskusiją ir padaryti tai su įkvepiančia paskutine mintimi.

Galbūt žinote, kad Isaacas Asimovas 1950 m. pasiūlė savo „Trys robotikos dėsniai“, ir mes iki šiol žavimės tomis paskelbtomis taisyklėmis. Nors atrodo, kad taisyklės yra lengvai paisomos, pavyzdžiui, kad dirbtinio intelekto sistema ar robotas neturi pakenkti žmogui ir neleisti, kad žmogus pakenktų, yra daug svarbių niuansų, dėl kurių tai sudėtinga, o kartais net neįmanoma, žr. mano analizę. adresu nuoroda čia.

Bet kuriuo atveju, čia yra kažkas, kuo Asimovas taip pat žinomas, nors ir mažiau: „Niekada neleiskite, kad jūsų moralės jausmas trukdytų daryti tai, kas teisinga“.

Kalbant apie etišką DI, kurį visi tikimės sukurti, turime nepamiršti, kad AI etika gali būti ne tokia, kokios tikėjomės, ir kad AI vis tiek turės daryti viską, kas yra teisinga. Asimovas gerai pasakė. Ilgai anksčiau Aristotelis galvojo gana panašiai.

Šaltinis: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- dėklas su-autonominiais-automobiliais/