AI etika teigia, kad dirbtinis intelektas turėtų būti ypač naudojamas, kai yra daug žmonių

Žmonės turi žinoti savo ribotumą.

Galite prisiminti panašią garsiąją savo ribotumo pažinimo eilutę, kurią šiurkščiai išsakė veikėjas Purvinas Haris 1973 m. filme pavadinimu Magnum grupė (pagal ištartus aktoriaus Clinto Eastwoodo žodžius, atlikdamas įsimintiną inspektoriaus Harry Callahano vaidmenį). Bendra mintis yra tokia, kad kartais esame linkę nepastebėti savo galimybių ribų ir atitinkamai pasinerti į karštą vandenį. Nesvarbu, ar dėl pasipūtimo, egocentriškumo ar tiesiog aklumo savo galimybėms, priesakas žinoti ir aiškiai atsižvelgti į savo polinkius bei trūkumus yra labai protingas ir naudingas.

Prie išmintingo patarimo pridėkime naują posūkį.

Dirbtinis intelektas (AI) žinojo savo apribojimus.

Ką aš turiu galvoje sakydamas tą gerbiamos frazės variantą?

Pasirodo, pradinis skubėjimas panaudoti šiuolaikinį dirbtinį intelektą kaip viltingą pasaulio problemų sprendimą buvo suteptas ir visiškai sugadintas supratimo, kad šiandieninis dirbtinis intelektas turi tam tikrų gana rimtų apribojimų. Mes nuėjome nuo pakilių antraščių AI for Good ir vis labiau įklimpome AI For Bad. Matote, daug dirbtinio intelekto sistemų buvo sukurtos ir pritaikytos įvairiausioms nepalankioms rasinėms ir lyčių sąlygoms bei begalei kitų tokių pasibaisėtinų nelygybių.

Išsamią ir nuolatinę AI etikos ir etinio AI aprėptį žr nuoroda čia ir nuoroda čia, Tik pavadinimas kelias.

Šiose AI sistemose aptinkami paklaidai nėra tokio, sakytume, „tyčinio“ tipo, kurį priskirtume žmogaus elgesiui. Paminėju tai norėdamas pabrėžti, kad šiandieninis AI nėra jautrus. Nepaisant siaubingų antraščių, kurios rodo priešingai, niekur nėra AI, kuris net priartėtų prie jausmingumo. Be to, mes nežinome, kaip dirbtinį intelektą įtraukti į jautrumo tarpą, be to, niekas negali tiksliai pasakyti, ar kada nors pasieksime AI jausmą. Gal kada nors tai įvyks, o gal ir ne.

Taigi, aš noriu pasakyti, kad negalime konkrečiai priskirti intencijos tokiai DI rūšiai, kurią šiuo metu turime. Be to, mes galime gausiai priskirti ketinimą tiems, kurie kuria AI sistemas. Kai kurie AI kūrėjai nežino, kad jie sukūrė AI sistemą, kurioje yra nemalonių ir galbūt neteisėtų šališkumo. Tuo tarpu kiti dirbtinio intelekto kūrėjai supranta, kad į savo dirbtinio intelekto sistemas įtraukia šališkumo, galbūt tai daro tikslingai neteisėtai.

Bet kuriuo atveju rezultatas vis tiek yra netinkamas ir greičiausiai neteisėtas.

Dedamos ryžtingos pastangos paskelbti AI etikos principus, kurie paaiškins AI kūrėjus ir pateiks tinkamas gaires, kaip išvengti šališkumo jų AI sistemose. Tai padės dvejopai. Pirma, tie, kurie kuria dirbtinį intelektą, nebeturės pasiteisinimo, kad jie tiesiog nežinojo, kokių nurodymų reikia laikytis. Antra, tie, kurie nukrypsta nuo etinių dirbtinio intelekto sąlygų, bus lengviau sugauti ir parodyti, kad išvengs to, ką jie buvo įspėjami daryti ir nedaryti.

Trumpai apsvarstykime kai kuriuos pagrindinius etinio AI nurodymus, kad parodytume, apie ką dirbtinio intelekto kūrėjai turėtų galvoti ir griežtai laikytis AI etikos pozicijos.

Kaip teigia Vatikanas Roma ragina dirbtinio intelekto etiką ir kaip aš išsamiai aprašiau nuoroda čia, tai yra šeši pagrindiniai AI etikos principai:

  • Skaidrumas: Iš esmės AI sistemos turi būti paaiškinamos
  • Įtraukimas: Turi būti atsižvelgta į visų žmonių poreikius, kad visi galėtų gauti naudos, o visiems būtų sudarytos geriausios sąlygos išreikšti save ir tobulėti.
  • Atsakomybė: Tie, kurie kuria ir diegia dirbtinio intelekto naudojimą, turi elgtis atsakingai ir skaidriai
  • Nešališkumas: Nekurkite ir nesielkite pagal šališkumą, taip saugodami sąžiningumą ir žmogaus orumą
  • Patikimumas: AI sistemos turi veikti patikimai
  • Saugumas ir privatumas: AI sistemos turi veikti saugiai ir gerbti vartotojų privatumą.

Kaip teigia JAV gynybos departamentas (DoD) savo Dirbtinio intelekto naudojimo etiniai principai ir kaip aš išsamiai aprašiau nuoroda čia, tai yra šeši pagrindiniai AI etikos principai:

  • Atsakingas: DoD darbuotojai laikysis tinkamo lygio sprendimo ir rūpestingumo, likdami atsakingi už AI galimybių kūrimą, diegimą ir naudojimą.
  • Teisingas: Departamentas imsis apgalvotų veiksmų, kad sumažintų nenumatytą AI galimybių paklaidą.
  • Atsekama: Departamento dirbtinio intelekto pajėgumai bus plėtojami ir naudojami taip, kad atitinkami darbuotojai tinkamai išmanytų technologijas, kūrimo procesus ir veiklos metodus, taikomus dirbtinio intelekto pajėgumams, įskaitant skaidrias ir audituojamas metodikas, duomenų šaltinius ir projektavimo procedūras bei dokumentus.
  • patikimas: Departamento dirbtinio intelekto pajėgumai bus aiškiai ir tiksliai apibrėžti, o tokių galimybių sauga, saugumas ir veiksmingumas bus tikrinamas ir užtikrinamas pagal nustatytus naudojimo būdus per visą jų gyvavimo ciklą.
  • Valdomas: Departamentas suprojektuos ir suprojektuos dirbtinio intelekto pajėgumus, kad jie galėtų atlikti numatytas funkcijas, tuo pat metu turėdami galimybę aptikti ir išvengti nenumatytų pasekmių bei išjungti arba išjungti įdiegtas sistemas, kurios demonstruoja nenumatytą elgesį.

Taip pat aptariau įvairias kolektyvines dirbtinio intelekto etikos principų analizes, įskaitant tyrėjų parengtą rinkinį, kuris išnagrinėjo ir apibendrino daugelio nacionalinių ir tarptautinių AI etikos principų esmę straipsnyje „Pasaulinis AI etikos gairių kraštovaizdis“ (paskelbtas). in Gamta), ir kad mano aprėptis nagrinėjama adresu nuoroda čia, dėl kurio atsirado šis kertinių akmenų sąrašas:

  • Skaidrumas
  • Teisingumas ir sąžiningumas
  • Nepiktybiškumas
  • atsakomybė
  • Privatumo politika
  • Gerumas
  • Laisvė ir autonomija
  • Pasitikėkite
  • Tvarumas
  • orumas
  • Solidarumas

Kaip galite tiesiogiai atspėti, gali būti labai sunku nustatyti šių principų ypatumus. Dar daugiau, pastangos tuos plačius principus paversti kažkuo visiškai apčiuopiamu ir pakankamai išsamiu, kad būtų galima panaudoti kuriant AI sistemas, taip pat yra sunkus riešutas. Apskritai lengva numoti ranka apie tai, kas yra AI etikos nuostatos ir kaip jų apskritai reikia laikytis, o daug sudėtingesnė situacija, kai dirbtinio intelekto kodavimas turi būti tikra guma, atitinkanti kelią.

DI etikos principus turi naudoti DI kūrėjai, taip pat tie, kurie valdo DI kūrimo pastangas ir netgi tie, kurie galiausiai kuria ir atlieka AI sistemų priežiūrą. Visos suinteresuotosios šalys per visą DI kūrimo ir naudojimo ciklą laikosi nustatytų etiško AI normų. Tai svarbus akcentas, nes įprasta prielaida, kad „tik koduotojai“ arba tie, kurie programuoja AI, turi laikytis AI etikos sąvokų. Atminkite, kad dirbtiniam intelektui sukurti ir įgyvendinti reikia kaimo. Dėl to visas kaimas turi laikytis AI etikos.

Bet kokiu atveju, dabar, kai supratau, kad dirbtinis intelektas gali turėti šališkumo, galbūt visi galime sutikti su šiais dviem akivaizdžiais faktais:

1. Žmonės gali turėti daug nepalankių nusistatymų ir gali pagal juos veikti

2. AI gali turėti daug nepageidaujamų paklaidų ir gali veikti pagal tuos paklaidas

Šiame kontekste man kažkiek nemalonu vertinti žmones ir dirbtinį intelektą, nes tai gali kažkaip reikšti, kad dirbtinio intelekto gebėjimai yra tokie pat kaip ir žmonės. Taip tikrai nėra. Šiek tiek vėliau šioje diskusijoje grįšiu prie didėjančio susirūpinimo dėl dirbtinio intelekto antropomorfizavimo.

Kas yra blogiau: žmonės, kurie demonstruoja nepageidaujamus šališkumus, ar AI, kuris tai daro?

Drįstu teigti, kad klausimas kelia vieną iš tų bjaurių pasirinkimų. Galima ginčytis, kad tai mažesnė iš dviejų blogybių. Norėtume, kad žmonės neįkūnytų nepageidaujamų šališkumo. Be to, norėtume, kad net jei žmonės turi nepalankų šališkumą, jie nesielgtų pagal tą šališkumą. Tą patį galima pasakyti apie AI. Norėtume, kad dirbtinis intelektas neįtrauktų nepalankių paklaidų ir kad net jei yra tokių viduje užkoduotų šališkumo, AI bent jau jų nesiimtų.

Nors norai nebūtinai valdo pasaulį (mano analizei kylančios ir nerimą keliančios vadinamosios AI norų išsipildymas visoje visuomenėje, žr nuoroda čia).

Gerai, mes akivaizdžiai norime, kad žmonės žinotų savo apribojimus. Svarbu atpažinti, kai turite nepageidaujamų šališkumo. Lygiai taip pat svarbu stengtis, kad jūsų veiksmai ir sprendimai nebūtų įtraukiami į nepageidaujamus šališkumus. Įmonės šiandien bando įvairius būdus, kad jų darbuotojai nepatektų į nepalankius šališkus baisius spąstus. Darbuotojams rengiami specialūs mokymai, kaip etiškai atlikti savo darbą. Procesai formuojami aplink darbuotojus, kad įspėtų juos, kai atrodo, kad jie demonstruoja neetiškus papročius. Ir taip toliau.

Kitas būdas susidoroti su žmonėmis ir jų nepalankiomis tendencijomis būtų automatizuoti žmogiškąjį darbą. Taip, tiesiog pašalinkite žmogų iš kilpos. Neleiskite žmogui atlikti sprendimų priėmimo užduoties ir tikriausiai nebeturite jokių užsitęsusių rūpesčių dėl žmogaus požiūrio į bet kokius nepageidaujamus šališkumus. Žmogus nedalyvauja, todėl galimo žmogaus šališkumo problema atrodo išspręsta.

Tai iškeliu, nes stebime laipsnišką ir masinį perėjimą prie dirbtinio intelekto panaudojimo algoritmo sprendimų priėmimo (ADM) būdu. Jei galite pakeisti žmogų dirbtiniu intelektu, tikimybė, kad gausite daug naudos. Kaip jau minėta, nebesijaudintumėte dėl to žmogaus darbuotojo (to, kuris nebedirba to darbo) žmogiškųjų nusistatymų. Tikėtina, kad dirbtinis intelektas apskritai bus pigesnis, palyginti su ilgalaikiu laikotarpiu. Jūs atsisakote visų kitų įvairių sunkumų, kurie neatsiejami nuo žmogiškųjų darbuotojų. ir kt.

Panašu, kad populiarėjantis pasiūlymas yra toks: Kai bandote nuspręsti, kur geriausia dėti dirbtinį intelektą, pirmiausia žiūrėkite į nustatymus, kurie jau yra susiję su nepalankiu jūsų darbuotojų šališkumu ir dėl kurių šie šališkumas menkina arba kitaip pernelyg apsunkina tam tikras sprendimų priėmimo užduotis.

Esmė ta, kad būtų protinga užsidirbti didžiausią naudą investuojant į dirbtinį intelektą, skiriant labai atviras žmogaus sprendimų priėmimo užduotis, kurias sunku suvaldyti iš nepalankaus šališkumo perspektyvos. Pašalinkite tą vaidmenį atliekančius žmones. Pakeiskite juos AI. Daroma prielaida, kad dirbtinis intelektas neturėtų tokių nepageidaujamų šališkumo. Todėl jūs galite turėti savo pyragą ir jį valgyti, ty imtis sprendimų užduočių ir tai padaryti, atėmę etinį ir teisinį nepageidaujamo šališkumo šmėklą.

Jei tai paaiškinsite, IG (investicijų grąža) tikriausiai pavers dirbtinio intelekto pritaikymą be rūpesčių.

Štai kaip tai paprastai vyksta.

Peržiūrėkite visą savo įmonę ir pabandykite nustatyti sprendimų priėmimo užduotis, turinčias įtakos klientams. Kurios iš tų užduočių greičiausiai bus netinkamai pakeistos, jei darbuotojai įkūnija nepageidaujamą šališkumą? Jei jau bandėte suvaldyti šiuos šališkumus, galbūt leiskite viskam stovėti taip, kaip yra. Kita vertus, jei šališkumas vis kartojasi ir pastangos juos panaikinti yra varginančios, apsvarstykite galimybę atsisakyti tam tikro tinkamo AI. Nelaikykite darbuotojų mišinyje, nes jie gali nepaisyti AI arba nustumti AI atgal į nepalankių šališkumo bedugnę. Be to, įsitikinkite, kad dirbtinis intelektas gali tinkamai atlikti užduotį, o jūs pakankamai supratote sprendimų priėmimo aspektus, reikalingus darbui atlikti.

Skalauti ir kartoti.

Suprantu, kad tai atrodo paprasta mintis, nors suprantu, kad yra daug būdų, kaip žmones pakeisti dirbtiniu intelektu gali lengvai suklysti. Daugelis įmonių norėjo imtis tokių veiksmų ir nesvarstė, kaip tai padaryti. Dėl to jie dažnai sukeldavo daug blogesnę netvarką, nei turėjo iš pradžių.

Noriu paaiškinti ir pabrėžti, kad AI nėra panacėja.

Kalbant apie tai, yra vienas didžiulis trūkumas, susijęs su tariamai nešališku dirbtinio intelekto išmetimu šališkus sprendimus priimančius asmenis. Bėda ta, kad jūs galite tiesiog pakeisti vieną nepageidaujamų šališkumo rinkinį kitais. Remiantis ankstesniu nurodymu, AI gali turėti nepageidaujamų paklaidų ir gali veikti pagal tuos paklaidas. Daryti įžūlią prielaidą, kad šališkus žmones pakeisti nešališku dirbtiniu intelektu, tai dar ne viskas.

Trumpai tariant, čia yra susitarimas, kai į klausimą žiūrima griežtai atsižvelgiant į šališkumo veiksnius:

  • AI neturi nepageidaujamų šališkumo, todėl dirbtiniu intelektu pagrįstą ADM patogu įdiegti
  • AI turi tokius pat nepalankius nusistatymus kaip ir pakeisti žmonės, todėl dirbtinio intelekto pagrindu sukurtas ADM kelia nerimą.
  • AI įveda naujus nepalankius šališkumus, ne tik tuos, kurie yra pakeisti žmonės, ir greičiausiai atitinkamai pablogins situaciją.
  • Iš pradžių dirbtinis intelektas atrodo gerai, o vėliau pamažu virsta nepageidaujamu šališkumu
  • kitas

Galime trumpai išskleisti tas galimybes.

Pirmasis yra idealizuota to, kas gali nutikti, versija. AI neturi nepageidaujamų šališkumo. Įdedate dirbtinį intelektą į vietą ir jis puikiai atlieka savo darbą. Tau gerai! Žinoma, galima tikėtis, kad jūs taip pat kažkaip sumaniai tvarkėte žmonių perkėlimą dėl dirbtinio intelekto įtraukimo.

Antruoju atveju įdiegiate dirbtinį intelektą ir atrandate, kad dirbtinis intelektas demonstruoja tuos pačius nepageidaujamus šališkumus, kuriuos turėjo darbuotojai. Kaip tai gali būti? Įprastas būdas patekti į šiuos spąstus yra mašininio mokymosi (ML) ir giluminio mokymosi (DL) naudojimas, pagrįstas surinktais duomenimis apie tai, kaip šį vaidmenį atliekantys žmonės anksčiau priimdavo sprendimus.

Leiskite man šiek tiek paaiškinti.

ML/DL yra skaičiavimo modelių derinimo forma. Įprastas būdas yra rinkti duomenis apie sprendimo priėmimo užduotį. Duomenis tiekiate į ML/DL kompiuterių modelius. Šie modeliai siekia rasti matematinius modelius. Radusi tokius modelius, jei taip bus, AI sistema naudos tuos modelius, kai susidurs su naujais duomenimis. Pateikus naujus duomenis, dabartiniam sprendimui priimti taikomi modeliai, pagrįsti „senais“ arba istoriniais duomenimis.

Manau, galite atspėti, kur tai link. Jei žmonės, kurie daugelį metų dirbo šį darbą, įtraukė nepalankų šališkumą, yra tikimybė, kad duomenys tai atspindi subtiliai, bet reikšmingai. Mašininio mokymosi arba giluminio mokymosi skaičiavimo modelių derinimas tiesiog bandys atitinkamai matematiškai imituoti duomenis. Nėra panašumo į sveiką protą ar kitus jautrius modeliavimo per se aspektus.

Be to, AI kūrėjai taip pat gali nesuvokti, kas vyksta. Dėl paslaptingos matematikos gali būti sunku atskleisti dabar paslėptus šališkumus. Jūs pagrįstai tikėtumėte ir tikitės, kad AI kūrėjai išbandys galimai palaidotus šališkumus, nors tai yra sudėtingiau, nei gali atrodyti. Yra didelė tikimybė, kad net ir atlikus gana platų testavimą, ML/DL modelių atitikimo modeliuose vis tiek bus paklaidų.

Viską pasakius, galite grįžti į pradinę padėtį. Tie patys nepageidaujami žmonių polinkiai dabar atsispindi AI sistemoje. Jūs neišnaikinote šališkumo.

Dar blogiau, galbūt mažiau suprasite, kad dirbtinis intelektas turi šališkumo. Kalbant apie žmones, paprastai galite būti atsargūs, kad žmonės turi nepalankų šališkumą. Tai yra pagrindinis lūkestis. AI naudojimas gali priversti lyderius manyti, kad automatizavimas visiškai pašalino bet kokį žmogaus šališkumą. Jie taip nusiteikę, kad šovė sau į koją. Jie atsikratė žmonių, turinčių iš pažiūros žinomų nepatogių paklaidų, pakeisdami dirbtiniu intelektu, kuris, kaip manoma, neturėjo tokių paklaidų, tačiau dabar jie pradėjo naudoti AI, kuriuose jau žinomi tie patys paklaidai.

Dėl to viskas gali būti labai netikėta. Galbūt pašalinote kitus apsauginius turėklus, naudojamus dirbant su žmonėmis, kurie buvo sukurti siekiant aptikti jau numatytą žmonių šališkumą ir užkirsti jiems kelią. AI dabar turi laisvą valią. Nėra nieko, kas galėtų jį sugauti prieš imantis veiksmų. Tada dirbtinis intelektas gali pradėti vesti jus žiauriu keliu, kai susikaupė daugybė šališkų veiksmų.

Be to, esate nepatogioje ir galbūt atsakingoje pozicijoje, kurią kažkada žinojote apie šališkumą, o dabar leidote tiems šališkumui sukelti sumaištį. Galbūt vienas dalykas yra tai, kad niekada neteko susidurti su tokiais nepatogiais paklaidais, o tada netikėtai juos išprovokuoja AI. Galite pabandyti tai pateisinti „kas būtų atspėjęs“ blaškytuvu (galbūt nelabai įtikinamai). Tačiau jei dabar sukūrėte dirbtinį intelektą, kuris atlieka tuos pačius nepageidaujamus šališkus veiksmus, kaip ir anksčiau, jūsų pasiteisinimai tampa retesni ir menkesni.

Tai reiškia, kad dirbtinis intelektas rodo nepalankias tendencijas, su kuriomis anksčiau nebuvo susidurta, kai žmonės atliko užduotį. Galima sakyti, kad to išvengti galbūt sunkiau, nes tai susideda iš „naujų“ šališkumo, kurių įmonė anksčiau neieškojo. Tačiau galų gale pasiteisinimai gali nesuteikti jums daug palengvėjimo. Jei AI sistema pateko į neetišką ir neteisėtą teritoriją, jūsų žąsis gali būti iškepusi.

Dar vienas aspektas, kurį reikia nepamiršti, yra tai, kad dirbtinis intelektas gali prasidėti puikiai, o vėliau pereiti prie nepageidaujamų šališkumo. Tai ypač tikėtina, kai nuolat naudojamas mašininis mokymasis arba gilus mokymasis, kad dirbtinis intelektas būtų atnaujintas. Nesvarbu, ar ML / DL veikia realiuoju laiku, ar periodiškai atnaujina, reikia atkreipti dėmesį į tai, ar AI galbūt perima duomenis, kuriuose dabar yra paklaidų ir kurių anksčiau nebuvo.

Lyderiams, kurie mano, kad jie gauna nemokamus pietus mojuodami burtų lazdele, kad šališkus darbuotojus pakeistų dirbtiniu intelektu, jų laukia labai grubus pažadinimas. Žiūrėkite mano diskusiją apie lyderių įgalinimo svarbą dirbtinio intelekto etikos nurodymais adresu nuoroda čia.

Šiame šios diskusijos etape galiu lažintis, kad jūs trokštate kai kurių realaus pasaulio pavyzdžių, kurie galėtų parodyti, kaip pakeisti (arba ne) žmogaus nepageidaujamus šališkumus dirbtinio intelekto pagrindu pagrįstu nepalankiu šališkumu.

Malonu, kad paklausei.

Yra ypatingas ir neabejotinai populiarus pavyzdžių rinkinys, kuris man prie širdies. Matote, kaip dirbtinio intelekto, įskaitant etines ir teisines pasekmes, ekspertas, manęs dažnai prašoma pateikti realių pavyzdžių, atskleidžiančių DI etikos dilemas, kad būtų galima lengviau suvokti šiek tiek teorinį temos pobūdį. Viena iš įdomiausių sričių, ryškiai pristatančių šią etišką AI kliūtį, yra dirbtinio intelekto pagrindu sukurtų tikrų savaeigių automobilių atsiradimas. Tai bus patogus naudojimo atvejis arba pavyzdys plačioms diskusijoms šia tema.

Štai vertas dėmesio klausimas, kurį verta apsvarstyti: Ar dirbtinio intelekto pagrindu sukurtų tikrų savaeigių automobilių atsiradimas ką nors atskleidžia apie nepalankias AI tendencijas, ir jei taip, ką tai parodo?

Leiskite man akimirką išpakuoti klausimą.

Pirma, atkreipkite dėmesį, kad tikrai savarankiškai vairuojančiame automobilyje nėra žmogaus vairuotojo. Atminkite, kad tikri savarankiškai važiuojantys automobiliai yra valdomi naudojant AI vairavimo sistemą. Nereikia, kad prie vairo būtų vairuotojas žmogus, taip pat nėra numatyta, kad žmogus galėtų vairuoti transporto priemonę. Išsamią ir nuolatinę informaciją apie autonomines transporto priemones (AV) ir ypač apie savarankiškai važiuojančius automobilius žr. nuoroda čia.

Norėčiau dar labiau paaiškinti, ką turiu omenyje, kai kalbu apie tikrus savarankiškai vairuojančius automobilius.

Suprasti savarankiškų automobilių lygį

Paaiškinimas: tikri savaeigiai automobiliai yra tie, kad dirbtinis intelektas visiškai valdo automobilį ir vairavimo užduotyje nėra jokios žmogaus pagalbos.

Šios transporto priemonės be vairuotojo laikomos 4 ir 5 lygiais (žr. mano paaiškinimą adresu šią nuorodą čia), o automobilis, kurio vairuotojas turi pasidalyti vairavimo pastangomis, paprastai laikomas 2 arba 3 lygiu. Automobiliai, kurie kartu atlieka vairavimo užduotį, apibūdinami kaip pusiau savarankiški ir paprastai juose yra įvairių automatiniai priedai, vadinami ADAS (išplėstinės vairuotojo pagalbos sistemos).

Dar nėra tikro 5 lygio lygio savarankiškai važiuojančio automobilio, kurio mes net nežinome, ar tai bus įmanoma pasiekti, ir nei kiek laiko prireiks jo nuvažiavimui.

Tuo tarpu 4 lygio pastangos pamažu bando įgyti šiek tiek traukos atlikdami labai siaurus ir selektyvius viešųjų kelių bandymus, nors kyla ginčų dėl to, ar šis bandymas turėtų būti leidžiamas per se (mes visi esame gyvybės ar mirties jūrų kiaulytės eksperimente vyksta mūsų greitkeliuose ir pakelėse, kai kurie tvirtina, žr. mano aprėptį adresu šią nuorodą čia).

Kadangi pusiau autonominiams automobiliams reikalingas žmogiškas vairuotojas, šių tipų automobiliai bus žymiai kitokie nei vairuojant įprastas transporto priemones, todėl apie juos šioje temoje nėra daug naujų, tačiau, kaip pamatysite po akimirkos kiti taškai yra paprastai taikomi).

Dėl pusiau autonominių automobilių svarbu, kad visuomenė būtų perspėta apie nerimą keliantį aspektą, kuris pastaruoju metu iškyla, būtent, kad nepaisant tų vairuotojų, kurie nuolat skelbia vaizdo įrašus apie tai, kaip jie užmiega prie 2 ar 3 lygio automobilių vairo , visi turime vengti klaidinti manydami, kad vairuotojas, vairuodamas pusiau autonominį automobilį, gali atitraukti dėmesį nuo vairavimo užduoties.

Jūs esate atsakingas už transporto priemonės vairavimo veiksmus, nepaisant to, kiek automatikos gali būti išmesta į 2 ar 3 lygį.

Savarankiškai važiuojantys automobiliai ir dirbtinis intelektas su nepalankiomis šalimis

Tikrosios 4 ir 5 lygio savarankiškai vairuojančioms transporto priemonėms vairuotojo užduotis nebus skirta žmonėms.

Visi keleiviai bus keleiviai.

AI vairuoja.

Vienas aspektas, kurį reikia nedelsiant aptarti, reiškia, kad dirbtinis intelektas, dalyvaujantis šiandieninėse dirbtinio intelekto vairavimo sistemose, nėra jausmingas. Kitaip tariant, dirbtinis intelektas yra kompiuterinio programavimo ir algoritmų kolektyvas, kuris, be abejo, negali samprotauti taip, kaip gali žmonės.

Kodėl taip pabrėžiama, kad AI nėra jautrus?

Nes noriu pabrėžti, kad aptardamas dirbtinio intelekto vairavimo sistemos vaidmenį, aš AI nepriskiriu žmogaus savybių. Turėkite omenyje, kad šiomis dienomis yra nuolatinis ir pavojingas polinkis antropomorfizuoti AI. Iš esmės žmonės priskiria žmonėms panašų jausmą šiandieniniam dirbtiniam intelektui, nepaisant neginčijamo ir neginčijamo fakto, kad tokio AI dar nėra.

Patikslinę galite įsivaizduoti, kad dirbtinio intelekto vairavimo sistema savaime kažkaip „neišmanys“ vairavimo aspektų. Vairavimą ir visa tai, ką tai reiškia, reikės užprogramuoti kaip savarankiško automobilio techninės ir programinės įrangos dalį.

Pasinerkime į begalę aspektų, kurie yra svarbūs šia tema.

Pirma, svarbu suprasti, kad ne visi dirbtinio intelekto automobiliai yra vienodi. Kiekvienas automobilių gamintojas ir savarankiškai vairuojančių technologijų įmonė laikosi savo požiūrio į savaeigių automobilių kūrimą. Todėl sunku pateikti plačius teiginius apie tai, ką AI vairavimo sistemos darys ar ne.

Be to, kai teigiama, kad dirbtinio intelekto vairavimo sistema neatlieka tam tikro dalyko, vėliau tai gali aplenkti kūrėjai, kurie iš tikrųjų užprogramuoja kompiuterį tai padaryti. Žingsnis po žingsnio AI vairavimo sistemos palaipsniui tobulinamos ir plečiamos. Esamo apribojimo šiandien gali nebelikti būsimoje iteracijoje ar sistemos versijoje.

Aš tikiu, kad tai suteikia pakankamai litanijos įspėjimų, kuriais grindžiamas tai, ką ketinu pasakyti.

Dabar esame pasiruošę giliai pasinerti į savarankiškai važiuojančius automobilius ir etiškas AI galimybes, susijusias su AI ir nepageidaujamų šališkumo tyrimais.

Panaudokime lengvai suprantamą pavyzdį. Dirbtinio intelekto pagrindu veikiantis savarankiškai vairuojamas automobilis važinėja jūsų kaimynystės gatvėse ir atrodo, kad važiuoja saugiai. Iš pradžių skyrėte ypatingą dėmesį kiekvieną kartą, kai pavykdavo užmesti akį į savaeigį automobilį. Autonominė transporto priemonė išsiskyrė savo elektroninių jutiklių stovu, kuriame buvo vaizdo kameros, radarai, LIDAR įrenginiai ir panašiai. Po daugelio savaičių savaeigio automobilio važinėjimo po jūsų bendruomenę dabar vos pastebite. Jūsų nuomone, tai tik dar vienas automobilis jau judriuose viešuosiuose keliuose.

Kad nepagalvotumėte, kad neįmanoma ar neįtikėtina susipažinti su savaeigiais automobiliais, aš dažnai rašiau apie tai, kaip vietos, kurios patenka į savarankiško automobilio bandymus, pamažu priprato prie išpuoselėtų transporto priemonių. žiūrėkite mano analizę adresu šią nuorodą čia. Daugelis vietinių ilgainiui perėjo nuo burna žiojančio pasižavėjusio žvilgčiojimo į dabar skleidžiantį platų nuobodulio žiovumą, kad pamatytų tuos vingiuojančius savarankiškai važiuojančius automobilius.

Tikriausiai pagrindinė priežastis, kodėl jie gali pastebėti autonomines transporto priemones, yra susierzinimo ir susierzinimo veiksnys. AI vairavimo sistemos užtikrina, kad automobiliai laikytųsi visų greičio apribojimų ir kelių eismo taisyklių. Įspūdingi vairuotojai, važinėjantys tradiciniais žmonių varomais automobiliais, kartais erzina, kai užstrigo už griežtai įstatymų paisančių dirbtinio intelekto savarankiškų automobilių.

Prie to mums visiems gali tekti priprasti, teisingai ar neteisingai.

Grįžkime prie mūsų pasakos.

Paaiškėjo, kad pradeda kilti du nepagrįsti rūpesčiai dėl šiaip nekenksmingų ir apskritai sveikintinų dirbtinio intelekto pagrindu veikiančių savaeigių automobilių, būtent:

a. Tai, kur dirbtinis intelektas tarptinkliniu būdu važinėja savarankiškai vairuojančiais automobiliais, kad galėtų pasiimti atrakcionų, tapo nerimą keliančiu plačiosios bendruomenės rūpesčiu.

b. Kaip dirbtinis intelektas elgiasi su laukiančiais pėsčiaisiais, kurie neturi teisės pirmumo, taip pat kyla vis daugiau problemų.

Iš pradžių AI važinėjo savarankiškai važiuojančiais automobiliais visame mieste. Kiekvienas, norintis paprašyti pasivažinėjimo savaeigiu automobiliu, iš esmės turėjo lygias galimybes jį pasveikinti. Palaipsniui dirbtinis intelektas pirmiausia ėmė išlaikyti savavaldžius automobilius tik vienoje miesto dalyje. Ši sekcija uždirbo daugiau pinigų, o dirbtinio intelekto sistema buvo suprogramuota taip, kad bandytų maksimaliai padidinti pajamas, kaip dalis naudojimo bendruomenėje.

Skurdžiose miestelio vietose bendruomenės nariai rečiau galėjo pasivažinėti savaeigiu automobiliu. Taip buvo todėl, kad savarankiškai važiuojantys automobiliai buvo toliau ir važinėjo didesnių pajamų srityje. Kai užklausa gaunama iš tolimos miesto dalies, bet koks prašymas iš arčiau esančios vietos, kuri greičiausiai buvo „gerbiamoje“ miesto dalyje, bus teikiama pirmenybė. Galiausiai gauti savaeigį automobilį bet kurioje kitoje vietoje, išskyrus turtingesnę miesto dalį, buvo beveik neįmanoma, o tai kelia nerimą tiems, kurie gyveno tuose dabar išteklių badaujančiuose rajonuose.

Galite tvirtinti, kad dirbtinis intelektas iš esmės atsidūrė tarpininko diskriminacijos formoje (taip pat dažnai vadinama netiesiogine diskriminacija). AI nebuvo užprogramuotas taip, kad išvengtų tų skurdesnių rajonų. Vietoj to, jis „išmoko“ tai padaryti naudodamas ML / DL.

Reikalas tas, kad pavėžėjimo žmonės buvo žinomi dėl to, kad daro tą patį, nors nebūtinai vien dėl pinigų uždirbimo kampo. Kai kurie pavėžėjimo žmonės vairuotojai buvo nepalankiai nusiteikę paimti motociklininkus tam tikrose miesto vietose. Tai buvo šiek tiek žinomas reiškinys, todėl miestas įdiegė stebėjimo metodą, kad gautų tai darančius žmones. Vairuotojai gali susidurti su bėdomis atlikdami nepatogią atrankos praktiką.

Buvo manoma, kad AI niekada nepateks į tą patį smėlį. Nebuvo sukurtas specialus stebėjimas, leidžiantis stebėti, kur važiuoja dirbtinio intelekto pagrindu veikiantys automobiliai. Tik po to, kai bendruomenės nariai pradėjo skųstis, miesto vadovai suprato, kas vyksta. Norėdami sužinoti daugiau apie tokio tipo problemas visame mieste, kurias ketina pristatyti autonominės transporto priemonės ir savarankiškai važiuojantys automobiliai, žr. mano aprėptį adresu šią nuorodą čia ir kuriame aprašomas Harvardo vadovaujamas tyrimas, kurio bendraautorius šia tema.

Šis dirbtinio intelekto pagrindu veikiančių savarankiškai vairuojančių automobilių tarptinklinio ryšio aspektų pavyzdys iliustruoja ankstesnius požymius, kad gali būti situacijų, kuriose žmonės gali turėti nepalankių išankstinių nusistatymų, kuriems taikomos kontrolės priemonės, o dirbtinis intelektas, pakeičiantis tuos žmones vairuotojus, yra paliktas visiškai. Laisvas. Deja, dirbtinis intelektas gali pamažu įklimpti į panašias tendencijas ir tai padaryti be pakankamai apsauginių turėklų.

Antrasis pavyzdys apima AI nustatymą, ar sustoti laukiantiems pėstiesiems, kurie neturi teisės kirsti gatvę.

Jūs neabejotinai važiavote ir susidūrėte su pėsčiaisiais, kurie laukė, kol galės pereiti gatvę, tačiau neturėjo tam teisės. Tai reiškė, kad turite teisę nuspręsti, ar sustoti ir leisti jiems pereiti. Galite tęsti neleisdami jiems kirsti ir vis tiek visiškai laikytis teisėtų vairavimo taisyklių.

Tyrimai, kaip žmonės vairuotojai nusprendžia sustoti ar nesustoti tokiems pėstiesiems, rodo, kad kartais vairuotojai pasirenka remdamiesi nepalankiu šališkumu. Vairuotojas žmogus gali pažvelgti į pėsčiąjį ir nuspręsti nesustoti, net jei būtų sustojęs, jei pėsčiojo išvaizda būtų kitokia, pavyzdžiui, dėl rasės ar lyties. Aš tai išnagrinėjau adresu nuoroda čia.

Įsivaizduokite, kad dirbtinio intelekto pagrindu veikiantys automobiliai yra užprogramuoti spręsti klausimą, ar sustoti, ar nesustoti pėstiesiems, kurie neturi teisės pirmumo. Štai kaip AI kūrėjai nusprendė užprogramuoti šią užduotį. Jie rinko duomenis iš miestelio vaizdo kamerų, kurios yra visame mieste. Duomenys rodo vairuotojus žmones, kurie sustoja pirmumo teisės neturintiems pėstiesiems ir nesustojančius žmones. Visa tai surenkama į didelį duomenų rinkinį.

Naudojant mašininį mokymąsi ir gilųjį mokymąsi, duomenys modeliuojami skaičiuojant. Tada dirbtinio intelekto sistema naudoja šį modelį, kad nuspręstų, kada sustoti ar nesustoti. Paprastai manoma, kad nesvarbu, ką sudarytų vietiniai papročiai, dirbtinis intelektas taip nukreips savarankiškai vairuojantį automobilį.

Miesto vadovų ir gyventojų nuostabai, AI akivaizdžiai nusprendė sustoti arba nesustoti, atsižvelgdamas į pėsčiojo išvaizdą, įskaitant rasę ir lytį. Savaime važiuojančio automobilio jutikliai nuskenuotų laukiantį pėsčiąjį, pateiktų šiuos duomenis į ML/DL modelį, o modelis išsiųstų į AI – sustoti ar tęsti. Deja, mieste jau buvo daug žmonių vairuotojų šališkumo šiuo atžvilgiu, o AI dabar imitavo tą patį.

Geros naujienos yra tai, kad tai iškelia problemą, kurios egzistavimo beveik niekas anksčiau nežinojo. Bloga žinia buvo ta, kad kadangi dirbtinis intelektas buvo sučiuptas tai darantis, daugiausia kaltės tenka jam. Šis pavyzdys iliustruoja, kad dirbtinio intelekto sistema gali tik dubliuoti jau egzistuojančius nepalankius žmonių nusistatymus.

Išvada

Egzistuoja daugybė būdų, kaip pabandyti nesugalvoti dirbtinio intelekto, kuris arba išėjus iš vartų turi nepatogių paklaidų arba laikui bėgant atskleidžia šališkumą. Vienas iš būdų – užtikrinti, kad dirbtinio intelekto kūrėjai žinotų apie tai, kad tai įvyktų, todėl jie turėtų būti pasirengę užprogramuoti AI, kad būtų išvengta problemos. Kitas būdas – turėti patį DI savikontrolę, kad nustatytų neetišką elgesį (žr. mano diskusiją adresu nuoroda čia) ir (arba) turėti kitą AI elementą, kuris stebi kitas dirbtinio intelekto sistemas dėl galimai neetiško elgesio (aš tai aprašiau adresu nuoroda čia).

Apibendrinant, turime suprasti, kad žmonės gali turėti nepatogių šališkumo ir kažkaip jie turi žinoti savo apribojimus. Taip pat dirbtinis intelektas gali turėti nepatogių šališkumo ir kažkaip turime žinoti jų apribojimus.

Tiems iš jūsų, kurie aistringai priima dirbtinio intelekto etiką, norėčiau baigti dar viena garsia linija, kurią visi jau turi žinoti. Būtent, toliau naudokitės etiško AI svarba ir dalinkitės ja. Ir tai darydamas įžūliai pasakyčiau: „Pirmyn, padaryk mano dieną“.

Šaltinis: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/