AI etika ir dirbtinio intelekto sukeltas psichologinis skiepas, padedantis žmonėms gauti dezinformaciją

Ką darysime dėl didžiulio dezinformacijos ir dezinformacijos pertekliaus?

Viskas akivaizdžiai blogėja ir blogėja su kiekviena diena.

Galbūt dirbtinis intelektas (AI) gali padėti mums. Taip, tai tiesa, galbūt galėsime panaudoti naudingą AI panaudojimą, kad susidorotume su mūsų nenumaldomu dezinformacijos ir dezinformacijos cunamiu. Galbūt išmintinga pabandyti tai padaryti. Atrodytų, kad kiekvienas galimo sprendimo kelias vertas ieškojimo.

Be to, norėčiau iš karto pripažinti ir pastebėti, kad AI neabejotinai tai padarys taip pat taip pat būti problemos dalimi. Neabejotina, kad žmonės gali lengvai panaudoti AI, kad sukurtų dezinformaciją ir dezinformaciją. Be to, dirbtinis intelektas gali būti klastingai panaudotas tam, kad dezinformacija ir dezinformacija atrodytų nuostabiai pagrįstos ir suklaidintų žmones, kad jie patikėtų, kad pateikta informacija yra viliojanti tiksli ir tikroviška. Neabejotinai liūdna to, ką AI pateikia ant stalo. Prie šios neigiamos galvosūkio grįšime šios diskusijos pabaigoje.

Kol kas apsivilkime besišypsančius veidus ir išsiaiškinkime, kaip dirbtinis intelektas yra naudingas dezinformacijai ir dezinformacijai prikelti ant kelių. Viena iš svarbių srovių bus ta, kad visa tai susilieja į gyvybiškai svarbius AI etikos elementus. Mano skiltys apie AI etiką ir etišką AI yra nuolatinės ir plačios, įskaitant nuoroda čia ir nuoroda čia, Tik pavadinimas kelias.

Apsvarstykite šiuos kertinius būdus, kaip AI gali būti ypač naudingas sąjungininkas kovojant su dezinformacija ir dezinformacija:

  • Sustokite „Get-Go“: AI gali būti naudojamas aptikti ir bandyti pašalinti dezinformaciją ir dezinformaciją, kol ji nepasiskleidžia
  • Filtruoti prieš matant: AI gali būti naudojamas dezinformacijai ir dezinformacijai filtruoti, kad jums nereikėtų jaudintis, kad ją pamatysite
  • Pasiruoškite būti imunitetu: AI gali būti naudojamas sustiprinti jūsų pasirengimą ir gebėjimą kovoti su dezinformacija ir dezinformacija (šiek tiek formaliai žinoma kaip tam tikra psichologinė skiepijimas)
  • kitas

Pirmas išvardytas taškas reiškia bandymą sustabdyti dezinformaciją ir dezinformaciją kuo anksčiau, prieš turiniui patenkant į pasaulį.

Tai labai problemiškas požiūris. Kai kurie garsiai ginčytųsi, kad tai gali būti Didžiojo brolio bandymas slopinti žodžio laisvę. Kiek toli šis AI galėtų nueiti? Ar tai gali trukdyti žmonėms laisvai reikšti savo nuomonę? Tai siaubingai gali tapti slidžiu AI šlaitu, galiausiai tapusiu baisiausiu košmaru, kai baigiasi blogi rezultatai, kurie nekaltai prasidėjo turint geriausių ketinimų.

Esu tikras, kad supratote nuotrauką.

Antrasis punktas yra šiek tiek nuosaikesnis ir rodo, kad turiniui filtruoti galėtume naudoti AI.

Galbūt turite AI filtro robotą, kuris nuskaitys visus jūsų gaunamus duomenų srautus iš įvairių naujienų ir kitų šaltinių. AI sukurtas taip, kad gautų bet kokią dezinformaciją ar klaidingą informaciją, atitinkančią jūsų asmeninius kriterijus. Taigi pagal tokį scenarijų tai nėra „Big Brother“ cenzūros situacija. Jūs kontroliuojate dirbtinį intelektą ir tai, kaip jis jūsų vardu filtruoja jūsų tikrą informaciją.

Skamba gana gerai.

Tačiau yra keletas dėmesio vertų rūpesčių.

Pavyzdžiui, mes jau esame labai susiskaldę savo požiūriu, o toks AI naudojimas gali padaryti tą poliarizaciją gilesnę ir tamsesnę. Įsivaizduokite, kad naudojant šį aptakų dirbtinį intelektą, kuris veikia be pertraukos 24 × 7, jums niekada nereikės matyti nė trupučio informacijos, kurią priskyrėte galimai dezinformacijai ir dezinformacijai. Dabar beveik garantuojama, kad jūsų poliarizuota perspektyva išliks nepakitusi. Visą dieną ir kiekvieną kartą, kai siekiate pažvelgti į jūsų dėmesio laukiančią informaciją, ji visada yra visiškai iš anksto atrinkta ir nėra jokios galimybės žvilgtelėti į vadinamąją dezinformaciją ir dezinformaciją.

Aš sakau, kad gali būti dezinformacija ir dezinformacija vadinamasis nes yra labai daug ginčų dėl to, kas iš tikrųjų yra dezinformacija ir dezinformacija. Kai kurie ekspertai tvirtina, kad yra absoliutus pagrindas nustatyti, kas yra dezinformacija, o kas dezinformacija. Yra teisinga ir neteisinga. Viską galima apskaičiuoti neklystant, kad kažkas yra arba dezinformacija, arba dezinformacija.

Ne visi viską mato taip aiškiai.

Sakoma, kad patarlė įjungta arba išjungta viena kitą paneigianti dichotomijos kontrastas yra klaidinanti nuostata. Vieno asmens dezinformacija negali būti laikoma dezinformacija kitam asmeniui. Taip pat ir apie dezinformaciją. Teigiama, kad dezinformacija ir dezinformacija skiriasi savo pobūdžiu ir mastu. Bandyti galutinai suskirstyti visą informaciją į vieną ar kitą krūvą yra daug sunkiau, nei rodo mojavimas rankomis.

Esmė ta, kad antrasis punktas apie AI naudojimą kaip filtravimo mechanizmą turi kompromisų. Nekyla abejonių, kad dirbtinis intelektas vis dažniau bus naudojamas šiam naudojimui. Tuo pačiu metu turime atsižvelgti į iššūkius, kuriuos toks AI iškels į pirmą planą. Dirbtinis intelektas, kaip dezinformacijos ir dezinformacijos filtras, nėra kažkokia sidabrinė kulka ar „slam dunk“.

Taip pereiname prie trečiojo punkto, ty galimybės panaudoti AI, kad žmonės geriau susidorotų su dezinformacija ir dezinformacija.

Abejoju, ar tikriausiai daug girdėjote apie šį trečiąjį AI panaudojimo būdą šiame kontekste. Jis tik pradeda ryškėti. Dabar esate pažangiausias dalykas, kuris greičiausiai augs ir palaipsniui bus pradėtas naudoti. Tačiau žinokite, kad šiam populiarumui plečiantis, ginčai dėl to, ar jis tinkamas, taip pat taps labai matomi.

Dalis problemos yra ta, kad dirbtinis intelektas yra šiek tiek naudojamas tam, ką kai kurie menkinančiu būdu vadintų žaisti proto žaidimus su žmonėmis.

Tai atrodo grėsminga.

Tai taip pat atveda mus į AI etikos sritį.

Visa tai taip pat susiję su blaiviai kylančiu susirūpinimu dėl šiandienos dirbtinio intelekto ir ypač dėl mašininio mokymosi ir giluminio mokymosi kaip technologijos formos ir jų panaudojimo. Matote, yra ML/DL naudojimo atvejų, kai plačioji visuomenė turi antropomorfizuoti dirbtinį intelektą, manydama arba nuspręsdama manyti, kad ML/DL yra jautrus AI arba artimas (taip nėra). Be to, ML/DL gali apimti skaičiavimo modelių atitikimo aspektus, kurie yra nepageidaujami arba visiškai netinkami arba neteisėti etikos ar teisiniu požiūriu.

Gali būti naudinga pirmiausia paaiškinti, ką aš turiu omenyje kalbėdamas apie AI, taip pat trumpai apžvelgti mašininį mokymąsi ir gilųjį mokymąsi. Yra daug painiavos dėl to, ką reiškia dirbtinis intelektas. Taip pat norėčiau supažindinti jus su AI etikos nuostatomis, kurios bus ypač svarbios likusioje šio diskurso dalyje.

Įrašo apie AI paskelbimas

Įsitikinkite, kad esame tame pačiame puslapyje dėl šiandieninio AI pobūdžio.

Šiandien nėra jokio jautraus dirbtinio intelekto.

Mes šito neturime.

Mes nežinome, ar jautrus AI bus įmanomas. Niekas negali tiksliai nuspėti, ar pasieksime jautrųjį AI, nei ar jausmingasis AI kažkaip stebuklingai savaime atsiras kompiuterinės kognityvinės supernovos pavidalu (dažniausiai vadinama išskirtinumu, žr. nuoroda čia).

Supraskite, kad šiandieninis dirbtinis intelektas nesugeba „mąstyti“ niekaip taip, kaip žmogaus mąstymas. Kai bendraujate su „Alexa“ ar „Siri“, pokalbio gebėjimai gali atrodyti panašūs į žmogaus gebėjimus, tačiau realybė yra tokia, kad tai skaičiuojama ir jam trūksta žmogaus pažinimo. Naujausioje AI eroje plačiai panaudotas mašininis mokymasis ir gilusis mokymasis, kurie naudoja skaičiavimo modelių suderinimą. Tai paskatino dirbtinio intelekto sistemas, kurios atrodo kaip žmogaus polinkiai. Tuo tarpu šiandien nėra nė vieno dirbtinio intelekto, kuris turėtų sveiko proto ir kognityvinio nuostabaus tvirto žmogaus mąstymo.

Dalis problemos yra mūsų tendencija antropomorfizuoti kompiuterius ir ypač AI. Kai atrodo, kad kompiuterinė sistema arba AI veikia taip, kaip mes siejame su žmogaus elgesiu, kyla beveik didžiulis noras priskirti sistemai žmogiškąsias savybes. Tai dažni psichikos spąstai, galintys sugriebti net patį nepalankiausią skeptiką apie galimybes pasiekti nuovokumą.

Tam tikru mastu AI etika ir etinis AI yra tokia svarbi tema.

Dirbtinio intelekto etikos nuostatos verčia mus išlikti budriems. AI technologai kartais gali būti susirūpinę technologijomis, ypač aukštųjų technologijų optimizavimu. Jie nebūtinai atsižvelgia į didesnius visuomenės padarinius. Norint sukurti tinkamą DI, įskaitant vertinimą, kaip AI etika pritaikoma įmonėse, labai svarbu turėti DI etikos mąstymą ir tai daryti neatsiejamai su DI plėtra ir veikla.

Be AI etikos nuostatų taikymo apskritai, kyla atitinkamas klausimas, ar turėtume turėti įstatymus, reglamentuojančius įvairius AI naudojimą. Federaliniu, valstijos ir vietiniu lygmenimis rengiami nauji įstatymai, susiję su DI kūrimo įvairove ir pobūdžiu. Pastangos rengti ir priimti tokius įstatymus vyksta laipsniškai. Dirbtinio intelekto etika yra bent jau apsvarstyta priemonė ir beveik neabejotinai tam tikru mastu bus tiesiogiai įtraukta į tuos naujus įstatymus.

Žinokite, kad kai kurie griežtai tvirtina, kad mums nereikia naujų įstatymų, apimančių AI, ir kad mūsų esamų įstatymų pakanka. Jie įspėja, kad jei priimsime kai kuriuos iš šių dirbtinio intelekto įstatymų, užmušime auksinę žąsį, apribodami dirbtinio intelekto pažangą, teikiančią didžiulių socialinių pranašumų. Pavyzdžiui, žiūrėkite mano aprėptį adresu nuoroda čia.

Ankstesnėse skiltyse aprašiau įvairias nacionalines ir tarptautines pastangas rengti ir priimti įstatymus, reglamentuojančius dirbtinį intelektą, žr. nuoroda čia, pavyzdžiui. Taip pat aprašiau įvairius dirbtinio intelekto etikos principus ir gaires, kurias nustatė ir priėmė įvairios tautos, įskaitant, pavyzdžiui, Jungtinių Tautų pastangas, tokias kaip UNESCO AI etikos rinkinys, kurį priėmė beveik 200 šalių, žr. nuoroda čia.

Čia yra naudingas pagrindinis etinių AI kriterijų arba charakteristikų, susijusių su AI sistemomis, kurias anksčiau atidžiai tyrinėjau, sąrašas:

  • Skaidrumas
  • Teisingumas ir sąžiningumas
  • Nepiktybiškumas
  • atsakomybė
  • Privatumo politika
  • Gerumas
  • Laisvė ir autonomija
  • Pasitikėkite
  • Tvarumas
  • orumas
  • Solidarumas

Šiuos AI etikos principus nuoširdžiai turėtų taikyti AI kūrėjai, taip pat tie, kurie valdo dirbtinio intelekto kūrimo pastangas, ir netgi tie, kurie galiausiai kuria ir atlieka AI sistemų priežiūrą. Visos suinteresuotosios šalys per visą DI kūrimo ir naudojimo gyvavimo ciklą laikosi nustatytų etiško AI normų. Tai svarbus akcentas, nes įprasta prielaida, kad „tik koduotojai“ arba tie, kurie programuoja AI, turi laikytis AI etikos sąvokų. Kaip buvo pabrėžta anksčiau, dirbtinio intelekto kūrimui ir įgyvendinimui reikia kaimo, kuriame visas kaimas turi būti susipažinęs su AI etikos taisyklėmis ir jų laikytis.

Laikykimės dalykų žemėje ir sutelkime dėmesį į šiandieninį kompiuterinį nejautinį AI.

ML/DL yra skaičiavimo modelių derinimo forma. Įprastas būdas yra rinkti duomenis apie sprendimo priėmimo užduotį. Duomenis tiekiate į ML/DL kompiuterių modelius. Šie modeliai siekia rasti matematinius modelius. Radusi tokius modelius, jei taip bus, AI sistema naudos tuos modelius, kai susidurs su naujais duomenimis. Pateikus naujus duomenis, dabartiniam sprendimui priimti taikomi modeliai, pagrįsti „senais“ arba istoriniais duomenimis.

Manau, galite atspėti, kur tai link. Jei žmonės, priimdami pagrįstus sprendimus, įtraukė nepalankų šališkumą, tikėtina, kad duomenys tai atspindi subtiliai, bet reikšmingai. Mašininio mokymosi arba giluminio mokymosi skaičiavimo modelių derinimas tiesiog bandys atitinkamai matematiškai imituoti duomenis. AI sukurtame modeliavime per se nėra jokio sveiko proto ar kitų jautrių aspektų.

Be to, AI kūrėjai taip pat gali nesuprasti, kas vyksta. Dėl paslaptingos matematikos ML/DL gali būti sunku išsklaidyti dabar paslėptus šališkumus. Jūs pagrįstai tikėtumėte ir tikitės, kad AI kūrėjai išbandys galimai palaidotus šališkumus, nors tai yra sudėtingiau, nei gali atrodyti. Yra didelė tikimybė, kad net ir atlikus gana platų testavimą, ML/DL modelių atitikimo modeliuose vis tiek bus paklaidų.

Galite šiek tiek pasinaudoti garsiuoju ar liūdnai pagarsėjusiu posakiu apie šiukšlių išvežimą. Reikalas tas, kad tai labiau panašu į šališkumą, kuris klastingai įsiskverbia į AI paskendusį šališkumą. AI sprendimų priėmimo algoritmas (ADM) aksiomatiškai apkraunamas nelygybe.

Negerai.

Manau, kad dabar jau paruošiau etapą pakankamai aptarti AI, kaip priemonės, skatinančios psichologinį skiepą, susijusį su dezinformacijos ir dezinformacijos tvarkymu, vaidmenį.

Patekimas į žmonių protus

Pradėkime nuo dezinformacijos ir dezinformacijos pagrindų.

Paprastai dezinformacija reiškia melagingą ar klaidinančią informaciją.

Dezinformacija yra maždaug ta pati, nors ją sudaro papildomas elementas tikslas. Paprastai informaciją suprantame kaip dezinformaciją, kai tai yra informacija skirtas dezinformuoti.

Galiu pasakyti, kad šiuo metu yra 10 valanda nakties, o tai, tarkime, klaidinga, nes laikas iš tikrųjų yra vidurnaktis. Jei būčiau jums pasakęs 10 valandą kaip nujautimas ir nesistengčiau apgauti, paprastai sakytume, kad neteisingai jus informavau. Perdaviau dezinformaciją. Galbūt aš buvau tingus, o gal tikrai tikėjau, kad jau 10 valanda. Kita vertus, jei paminėjau 10 valandą, nes tyčia norėjau jus apgauti ir manyti, kad laikas yra 10 valanda ir kad aš žinojau, kad laikas iš tikrųjų yra vidurnaktis, tai galima sakyti, kad tai yra dezinformacijos forma. .

Vienas iš svarbiausių informacijos aspektų yra tai, kad paprastai mes galime skleisti informaciją, todėl informacija gali tapti plačiai paplitusi. Informacija iš tikrųjų gali tekėti kaip vanduo plačiąja prasme.

Sakau, kad yra 10 valanda nakties. Dabar jūs turite tą konkrečią informaciją. Galite garsiai šaukti šalia esančių žmonių grupei, kad yra 10 valanda nakties. Dabar jie taip pat turi tą pačią informaciją. Galbūt kai kurie iš tų žmonių įsikimba į savo mobiliuosius telefonus ir paskambina kitiems žmonėms, kad praneštų, kad jau 10 valanda. Apskritai informacija gali būti platinama arba dalijamasi, o kartais tai daroma taip greitai, o kitais atvejais – taip lėtai.

Tam tikra prasme galite teigti, kad informacija gali plisti.

Yra sukurtas žodis ar terminija, kurios galbūt nesate ypač matę ar vartoję ir kurie padeda apibūdinti šį informacijos plitimo reiškinį. infodeminė. Šis žodis yra informacijos ir epidemijos mišinys. Apskritai, infodemija siejama su aplinkybėmis, susijusiomis su dezinformacijos ar dezinformacijos skleidimu. Manoma, kad klaidinga ar klaidinanti informacija gali nepageidautinai plisti, panašiai kaip nepageidaujamas ligos ar ligų plitimas.

Pavyzdyje apie 10 valandą nakties šis atrodo faktas buvo informacija, kuri buvo išplatinta netoliese esančiai žmonių grupei. Jie savo ruožtu išplatino šį faktą kitiems. Jei 10 valanda buvo suklastota, tai šis konkretus dezinformacijos ar dezinformacijos atvejis buvo išplatintas daugeliui kitų. Jie gali nežinoti, kad informacija buvo dezinformacija arba galbūt dezinformacija.

Tikiu, kad visi šie apibrėžimai ir pagrindai atrodo protingi ir jūs iki šiol esate pasiruošę.

Puiku, tęskime.

Aš šiek tiek paslapčia nukreipiau jus į tai, kas kelia didelį susižavėjimą ir nerimą. Esmė ta, kad, be abejo, yra pagrįstų paralelių tarp ligų, kurias sukelia virusai, ir to, ką dezinformacija ar dezinformacija sukelia virusais.

Ne visi sutinka su šiomis tariamomis paralelėmis. Nepaisant to, jie yra intriguojantys ir verti dėmesio.

Leiskite man patikslinti.

Matote, galime pabandyti panaudoti patogią analogiją, nurodant žmonių platinamas ligas ir ligas, kurios plinta, lygindami panašią galimybę su dezinformacijos ir dezinformacijos plitimu. Norėdami pabandyti sustabdyti ligų plitimą, galime siekti anksti aptikti ir siekti suvaldyti atsirandantį ligos šaltinį, kuris nukreiptų galimą ligos plitimą. Kitas būdas kovoti su plintančia liga būtų apsisaugoti nuo jos užsikrėtimo, naudojant kaukę ar apsaugines priemones. Trečiasis metodas galėtų būti skiepijimas, siekiant sukurti su liga susijusį imunitetą.

Dabar apėjome visą ratą, nes tuos pačius metodus, kaip susidoroti su ligomis, galima aiškiai prilyginti kovai su dezinformacija ir dezinformacija. Anksčiau minėjau, kad yra panašių pastangų panaudoti dirbtinį intelektą, siekiant susidoroti su dezinformacija ir dezinformacija, ypač (kaip minėta anksčiau):

  • Sustokite „Get-Go“: AI gali būti naudojamas aptikti ir bandyti pašalinti dezinformaciją ir dezinformaciją, kol ji nepasiskleidžia
  • Filtruoti prieš matant: AI gali būti naudojamas dezinformacijai ir dezinformacijai filtruoti, kad jums nereikėtų jaudintis, kad ją pamatysite
  • Pasiruoškite būti imunitetu: AI gali būti naudojamas sustiprinti jūsų pasirengimą ir gebėjimą kovoti su dezinformacija ir dezinformacija (šiek tiek formaliai žinoma kaip tam tikra psichologinė skiepijimas)
  • kitas

Trečiasis aspektas čia bus labiausiai įdomus.

Čia yra sandoris.

Žinome, kad ligos dažniausiai užklumpa Žmogaus kūnas. Pagal analogiją, kaip atsiranda dezinformacija ir dezinformacija, galime manyti, kad nešvari informacija patenka į žmogaus protas. Taip, tikriausiai galite susidurti su dezinformacija ar klaidinga informacija, kuri patenka į jūsų mintis. Dezinformacija ar dezinformacija gali sugadinti arba nuodija jūsų mąstymo būdą.

Žmogaus kūnas gali būti paskiepytas, kad pasirengtų kontaktui su ligomis. Kyla didelis klausimas, ar galime tą patį padaryti žmogaus protui. Ar galima pabandyti paskiepyti protą, kad kai į galvą ateina dezinformacija ar klaidinga informacija, būtumėte tam pasiruošę ir buvote atitinkamai paskiepyti?

Studijų sritis, žinoma kaip psichologinė skiepijimas teigia, kad protas iš tiesų gali būti paskiepytas, kad būtų pasirengęs tvarkyti dezinformaciją ar dezinformaciją.

Apsvarstykite šį aprašymą neseniai atliktame tyrime, susijusiame su psichologine skiepijimu ir tuo, kas kartais vadinama darymu išankstinis gulbėjimas:

  • „Demasinformacijos demaskavimas taip pat yra problemiškas, nes dezinformacijos ištaisymas ne visada visiškai panaikina jos poveikį, reiškinį, vadinamą nuolatinio poveikio efektu. Atitinkamai, priešingai nei demaskavimas, išankstinis demaskavimas įgijo svarbą kaip priemonė prevenciškai ugdyti atsparumą numatomam dezinformacijos poveikiui. Šis metodas paprastai grindžiamas skiepijimo teorija. Skiepijimo teorija remiasi medicininės imunizacijos analogija ir teigia, kad galima sukurti psichologinį atsparumą nepageidaujamiems įtikinėjimo bandymams, panašiai kaip medicininės vakcinacijos sukuria fiziologinį atsparumą patogenams.Mokslas Avansu, 24 m. rugpjūčio 2022 d., „Psichologinė inokuliacija pagerina atsparumą dezinformacijai socialinėje žiniasklaidoje“, bendraautorių Jono Roozenbeeko, Sanderio van der Lindeno, Beth Goldberg, Steve'o Rathje ir Stephano Lewandowsky).

Grįžtant prie mano pavyzdžio apie 10 valandą nakties, tarkime, kad aš anksčiau jums sakiau, kad kartais nurodytas laikas nėra tikrasis laikas. Nuo šiol turėsite tam tikrą skiepijimo formą, kad būtų atsargūs dėl reikalaujamų laikų. Šis skiepas paruošė jus susidurti su deklaruojamais laikais, kurie yra dezinformacija arba klaidinga informacija.

Jei būčiau jus įspėjęs prieš keletą metų, kad deklaruoti laikai nėra tikri, yra tikimybė, kad nepagalvosite apie tą seniai buvusį įspėjimą. Taigi, ankstesnė inokuliacija (tarkime) susidėvėjo. Mano skiepijimą tau gali reikėti sustiprinti.

Taip pat yra tikimybė, kad skiepijimas nebuvo pakankamai konkretus, kad galėtumėte jį naudoti, kai to reikia. Jei prieš daugelį metų būčiau jus įspėjęs apie pareikštus laikus, palyginti su faktiniais laikais, tai gali būti pernelyg plati. Skiepijimas gali neveikti konkrečiu atveju, kai jums pranešama apie 10 val. Šia prasme turbūt mano skiepas turėjo būti toks, kad turėtumėte būti atsargūs, kai naudojamas nurodytas 10 valandos laikas. Žinoma, skiepai sergant ligomis yra šiek tiek vienodi, kartais labai būdingi žinomiems negalavimams, o kitais atvejais – plataus spektro.

Dažnai cituojamas mokslinis tyrimas, kurį 1961 m. atliko William McGuire iš Kolumbijos universiteto apie psichologinę skiepijimą, dabar paprastai laikomas klasika šioje studijų srityje. Galbūt jus sudomins šie pagrindiniai dalykai, kuriuos jis tuo metu išsakė:

  • „Tokia apibendrinta imunizacija gali atsirasti dėl bet kurio iš dviejų mechanizmų. Išankstinė ekspozicija gali šokiruoti asmenį, suvokiant, kad „truizmai“, kuriuos jis visada pripažino, iš tikrųjų yra pažeidžiami, taip paskatindami jį ginti savo tikėjimą, todėl jis yra labiau atsparus stipriems kontrargumentams, kai jie atsiranda. Arba dėl paneigimų, susijusių su išankstiniu atskleidimu, visi vėliau pateikti kontrargumentai prieš įsitikinimą gali atrodyti mažiau įspūdingi“ (William McGuire, „Resistance to Persuasion Confered by Active and Passive Prior Refutation Of The Same and Alternative Counterarguments“, Journal of Abnormal and Socialinė psichologija, 1961).

Ar manote, kad ši skiepų ir imunizacijos analogija yra naudingas ir tinkamas palyginimas su dezinformacijos ir dezinformacijos sritimi?

Vieni daro, kiti ne.

Šios diskusijos tikslais sutikite, kad prielaida yra pagrįsta ir tinkama.

Kaip turime stengtis paskiepyti arba imunizuoti žmonių protus?

Galėtume priversti žmones skaityti knygas, kurios galėtų nušviesti jų protą. Galime jiems apie tai papasakoti arba paprašyti žiūrėti vaizdo įrašus ar klausytis garso įrašų. ir kt.

Ir mes galime naudoti AI, kad padarytume tą patį.

AI sistema gali būti sukurta kaip jūsų inokuliatorius. Kai tik pradedate prisijungti prie interneto, pavyzdžiui, žiūrite į internetą, dirbtinio intelekto programa gali paruošti jus jūsų kelionei internete. Dirbtinis intelektas gali pateikti jums nedidelį kiekį dezinformacijos, kuri taip yra paženklinta ir leidžia suprasti, kad netrukus pamatysite tai, kas tyčia yra klaidinga.

Patyrus šią dirbtinio intelekto dezinformaciją, jūsų protas pradeda susidoroti su dezinformacija ar klaidinga informacija, su kuria galite susidurti gamtoje internete. Jūsų protas paruoštas. Voila, internete matote dienoraštį, kuriame skelbiamas tariamas faktas, kad svetimos būtybės iš Marso jau yra čia, žemėje ir slepiasi aiškiai matomoje vietoje, tačiau šią dezinformaciją ar klaidingą informaciją jūsų protas lengvai atmeta dėl išankstinio skiepijimo (na, ir vėl, galbūt tai tiesa ir jie tikrai čia!).

Bet kokiu atveju tikiuosi, kad dabar suprasite, kaip dirbtinis intelektas gali padėti pasėti ar imunizuoti žmones nuo dezinformacijos ar dezinformacijos.

Kuriamos įvairios AI programėlės, kurios veiks kaip dezinformacijos ar dezinformacijos skiepai. AI gali siekti suteikti plačią skiepijimą ir suteikti bendrą imunizacijos įvaizdį. AI taip pat galėtų būti sukurtas konkretesnėms skiepijimo formoms. Be to, AI gali veikti individualiai, atsižvelgiant į jūsų konkrečius poreikius ar interesus. Pažangus dirbtinis intelektas šioje erdvėje taip pat bandys nustatyti jūsų tolerancijos lygį, psichikos įsisavinimo greitį, išlaikymo gebėjimą ir kitus veiksnius, kai sudaromos ir pateikiamos vadinamosios imunizacijos nuotraukos.

Atrodo visai patogu.

AI kaip pavojingų proto žaidimų žaidėjas

Tokiu būdu naudojamas AI iš pirmo žvilgsnio atrodytų gana patogus (ei, aš tai paminėjau tik prieš sekundę).

Yra daugybė galimų neigiamų pusių ir problemų, kurios kelia nerimą ir galbūt gąsdina.

Savo skiltyse dažnai aptariu dvejopo naudojimo AI galimybes, pvz., žr nuoroda čia. AI gali būti gyvybiškai svarbus žmonijos indėlis. Deja, dirbtinis intelektas taip pat yra apsunkintas daugybe pavojų ir nelaimingų spąstų.

Kalbant apie dirbtinį intelektą kaip įskiepytoją, panagrinėkime šias demonstracines su AI etika susijusias problemas:

  • Nepageidaujamos žmonių reakcijos
  • Žmonių nereaguojančios reakcijos
  • AI klaidingai nukreipia
  • AI nepakankamas taikymas
  • Kibernetinis AI pažeidimas
  • kitas

Trumpai išnagrinėsime tuos rūpesčius.

Nepageidaujamos žmonių reakcijos

Tarkime, kad žmogus, gaunantis tokio tipo dirbtinio intelekto inokuliaciją, turi neigiamą reakciją arba sukelia neigiamą poveikį.

Asmuo gali klaidingai suprasti imunizaciją ir staiga tapti nepriimtas jokiai gaunamai informacijai. Jie blokuoja visą informaciją. AI kažkaip paskatino juos išmesti kūdikį su vandeniu (senas posakis, galbūt verta išeiti į pensiją). Užuot tik bandęs susidoroti su dezinformacija ir dezinformacija, asmuo reagavo nuspręsdamas, kad visa informacija visada yra klaidinga.

Nemanau, kad norime, kad žmonės taip persistengtų.

Yra daugybė nepageidaujamų reakcijų, kurias gali paskatinti AI. Taip yra iš dalies dėl to, kaip dirbtinis intelektas bandė atlikti skiepijimą, tačiau dalį problemos taip pat turime padėti žmogui, kuris buvo paskiepytas, kojomis. Jie galėjo reaguoti laukiniais ar keistais būdais, kurių to nepadarė kiti, kurie buvo paskiepyti dirbtiniu intelektu.

Vėlgi, galite tai palyginti su skiepų nuo ligų analogija.

Trumpai tariant, bus svarbu, kad tokios dirbtinio intelekto pastangos būtų atliekamos atsakingai, siekiant sumažinti neigiamą poveikį. Taip pat turėtų būti tolesnis AI aspektas, siekiant nustatyti, ar nepasireiškė nepageidaujama reakcija. Jei aptinkama nepageidaujama reakcija, AI turėtų būti sukurta taip, kad padėtų asmeniui reaguoti į neigiamą reakciją ir stengtųsi ją įveikti arba sušvelninti.

Nereaguojančios žmonių reakcijos

Kita galimybė yra ta, kad AI maitinamas inokuliavimas neturi įtakos priimančiam asmeniui.

Asmuo gauna AI pagrįstą skiepijimą, susijusį su dezinformacija ar dezinformacija. Nors dauguma žmonių „sulaukia“ ir tampa imunizuoti, yra žmonių, kurie nereaguos. Iš skiepų jie nieko neišmoksta. Jie nereaguoja į AI bandymą imunizuoti juos nuo visos arba tam tikros rūšies dezinformacijos ar dezinformacijos.

Dar kartą tai galima palyginti su skiepais nuo ligų.

AI turėtų būti sukurtas taip, kad galėtų susidoroti su tokia aplinkybe.

AI klaidingas nukreipimas

Įsivaizduokite, kad dirbtinis intelektas tikisi imunizuoti žmones tam tikra tema, kuri, sakysime, yra X tema, bet pasirodo, kad tema Y yra aptariama. AI klaidingai nukreipia.

Tai dviguba problema. Pirma, X tema nebuvo aptarta kaip numanomas ir tikimasi AI inokuliatoriaus paskirtis. Antra, tema Y nagrinėjama, bet galbūt nenorėjome, kad žmonės būtų skiepyti šia tema.

Oi!

Klausimų apstu. Ar buvo galima tam užkirsti kelią? Jei taip atsitiks, ar galime atšaukti Y imunizacijos temą? Ar galime siekti aprėpti X skiepijimo temą, ar žmogus bus mažiau imlus ar neimlus dėl iš pradžių klaidingo AI?

Kyla daug probleminių rūpesčių.

AI nepakankamas taikymas

AI suteikia skiepijimą tema Z. Panašu, kad skiepijamų žmonių reakcija yra minimali arba beveik nereikšminga. Inokuliacijos nepakako, kad įsitvirtintų.

Jums gali kilti pagunda greitai teigti, kad tai lengvai išsprendžiama. Viskas, ką jums reikia padaryti, tai pakartoti skiepijimą. Gal taip gal ne.

AI inokuliacija gali būti tokios ribotos vertės, kad nesvarbu, ar žmonės tai patyrė šimtą kartų, rezultatas vis tiek yra nereikšmingas. Jums gali tekti sustiprinti skiepijimą, o ne tiesiog jį pakartoti.

Tuo tarpu įsivaizduokite, kad bandoma sustiprinti AI maitinamą inokuliaciją, tačiau tai peržengia ribas. Patobulinta versija sukelia hiperreakciją. Taip, mes iš blogo tapome dar blogesni.

Kibernetinis AI pažeidimas

Įsivaizduokite, kad dirbtinis intelektas plačiai naudojamas siekiant padėti žmonėms apsisaugoti nuo dezinformacijos ir dezinformacijos.

Žmonių užvaldo bendras pasitikėjimas. Jie žino ir tikisi, kad dirbtinis intelektas jiems pateiks fragmentus, kurie atvers jiems akis į tai, kas vadinama dezinformacija ir dezinformacija.

Viskas atrodo gerai ir gerai.

Piktadėlis kažkokiu būdu gali padaryti AI kibernetinį pažeidimą. Jie slapta primeta AI tam tikrą pageidaujamą dezinformaciją, kurią nori, kad žmonės manytų, kad tai nėra dezinformacija. AI sukurtas taip, kad tikroji dezinformacija atrodytų tikra informacija. Be to, tikroji informacija atrodo kaip dezinformacija.

Žmonės visiškai snukerę. Juos dezinformuoja AI. Be to, kadangi jie tapo priklausomi nuo dirbtinio intelekto ir pasitikėdami, kad AI elgiasi teisingai, jie užkliūna dėl šio pažeisto AI. Nedvejojant.

Atsižvelgiant į tai, kaip lengvai gali plisti dezinformacija, piktadariai gali pasidžiaugti, kad tokio tipo dirbtinio intelekto egzistavimas yra lengviausias ir greičiausias būdas priversti savo klastingą melą pasklisti visame pasaulyje. Ironiška, žinoma, naudojant AI inokuliatorių, kad iš esmės paskleistų ligą.

Išvada

Ar turėtume, kad dirbtinis intelektas su mumis žaistų proto žaidimus?

Ar dezinformacijos ir dezinformacijos skiepijimo dirbtinis intelektas gali būti grėsmingas Trojos arklys?

Galite iš esmės pagrįsti nerimą dėl tokio košmaro.

Kiti šaiposi iš tokios galimybės. Žmonės yra pakankamai protingi, kad žinotų, kada dirbtinis intelektas bando juos apgauti. Žmonės nepapuls tokio driblingo. Tik idiotai gali būti suklaidinti tokio AI. Tai įprastos replikos ir kontrargumentai.

Nenorėdamas atrodyti, kad žaviuosi žmonėmis ir žmogaus prigimtimi, tiesiog pasakysiu, kad yra daug požymių, kad žmonės gali susižavėti juos klaidinančiomis AI.

Yra dar didesnė problema, kuri galbūt slypi per visą tai.

Kas kuria AI ir kaip AI algoritmiškai nusprendžia, kas laikoma dezinformacija ir dezinformacija?

Šiandien visame pasaulyje vyksta ištisas susirėmimas dėl to, kas yra konkrečiai dezinformacija ir dezinformacija. Kai kurie tvirtina, kad faktai yra faktai, todėl niekada negali kilti painiavos, kas yra tinkama ir netinkama informacija. Nors kartais velnias slypi detalėse, tai tikrai.

Kol kas paskutinė pastaba. Abraomas Linkolnas garsiai pasakė: „Galite apgauti visus žmones, o kai kuriuos – visą laiką, bet jūs negalite visą laiką apgauti visų žmonių.

Ar dirbtinis intelektas, naudojamas žmonijai apsaugoti nuo dezinformacijos ir dezinformacijos, bus gyvybiškai svarbi priemonė siekiant užtikrinti, kad ne visus žmones būtų galima visą laiką apgauti? O gal ji gali būti naudojama daugiau žmonių apgauti?

Laikas parodys.

Ir tai tikrai nėra dezinformacija ar dezinformacija.

Šaltinis: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/