Teisinių samprotavimų įdiegimas į dirbtinį intelektą gali protingai pasiekti žmogiškosios vertės suderinimą, sako AI etika ir AI įstatymas

Šiandienos rubrikoje į vieną gražiai austą audinį supinsiu daugybę, atrodytų, skirtingų su AI susijusių temų.

Ar jūs pasiruošę?

Įsivaizduokite, kad naudojate AI valdomą programą, kuri padeda jums atlikti kokią nors svarbią užduotį. Galbūt problema yra finansinė arba gali būti susijusi su sveikata. Esmė ta, kad esate priklausomi nuo AI, kad elgsitės teisingai ir atliksite tariamai saugiai ir patikimai.

Tarkime, AI nukrypsta į neetišką teritoriją.

Galbūt nesuvokiate, kad AI tai daro.

Pavyzdžiui, dirbtinis intelektas gali pasikliauti potencialiai paslėptais diskriminaciniais veiksniais, tokiais kaip rasė ar lytis, tačiau galbūt neturėsite jokių veiksmingų priemonių, kaip pastebėti netinkamą naudojimą. Štai jūs, visi vieni, gaunate trumpą lazdos galą per AI, kuris buvo sukurtas nuo pat pradžių probleminiu būdu arba sugebėjo nukreipti į sudėtingą ir ribinį etinį pavojų (papasakosiu daugiau apie tai akimirksniu).

Ką galite padaryti arba ką galima padaryti dėl dirbtinio intelekto, kuris nusprendžia eiti neetišku keliu?

Be bandymo iš anksto sukurti AI, kad jis neatliktų tokio klastingo veiksmo, anksčiau taip pat aprašiau, kad didėja susidomėjimas integruoti AI etikos tikrinimas AI sistemos yra išmestos į rinką. Idėja yra ta, kad norėdami neleisti dirbtinio intelekto pritaikytai programai peržengti etinių dimensijų ribas, galėtume naudoti papildomą AI, kad atliktume patikrinimą ir pusiausvyrą. Šis pridėtas AI gali būti už tikslinės AI programos ribų arba gali būti komponentas, įterptas arba implantuotas tiesiai į AI, kurį norime dar kartą patikrinti.

Kaip jau sakiau anksčiau, žr nuoroda čia: „Neseniai išryškėjusi tendencija – bandymas į AI sukurti etinius apsauginius turėklus, kurie užklups, kai likusi AI sistemos dalis pradės peržengti iš anksto nustatytas etikos ribas. Tam tikra prasme tikslas yra naudoti patį AI, kad nenukryptų etiškai. Galima sakyti, kad mes siekiame, kad AI išsigydytų pats“ (Lance Eliot, „Crafting Ethical AI That Monitors Unetical AI and Tries To Deter Bad AI from Acting Up“, "Forbes", 28 m. kovo 2022 d.).

Taip pat galite sudominti mano knygą AI sargybos robotai, kartais vadinami angelais sargais, kurie apima šių moderniausių AI-in-AI įterptųjų dvigubų tikrintuvų techninius pagrindus, žr. nuoroda čia.

Esmė ta, kad, laimei, jūsų šoninė gali būti išsaugota naudojant integruotą AI dvigubo patikrinimo etikos matavimo elementą, kuris buvo sukurtas ir įdiegtas į jūsų naudojamą AI programą. Bet ar to pakaks kaip sargybinis, kad iš tikrųjų įsitikintumėte, jog AI jūsų visiškai nesustabdo ir nesiryžta net į kenksmingą maišą?

Matote, AI programa gali veikti neva neteisėtas aktai.

Vienas dalykas, kad dirbtinis intelektas patenka į pilką zoną to, ką laikome etišku ar neetišku elgesiu. Lygiai taip pat nerimą keliantis elgesys ir, tikėtina, didėjantis susirūpinimas, sukelia dirbtinį intelektą, kuris tarsi peršoka ryklį ir nusileidžia į niūrią visiškai neteisėtų veiksmų tamsą.

Neteisėtas AI yra blogai. Blogai leisti neteisėtam AI likti be priežiūros. Kai kurie teisės mokslininkai atvirai nerimauja, kad dirbtinio intelekto atsiradimas ir paplitimas palaipsniui ir siaubingai sumažins mūsų panašumą į teisinės valstybės, žiūrėkite mano analizę adresu nuoroda čia.

Palaukite sekundę, galbūt sakysite.

Jums gali kilti pagunda manyti, kad AI kūrėjai tai padarys niekada užprogramuoti savo AI prieštarauti įstatymams. Neįsivaizduojama. Taip elgtųsi tik piktieji piktadariai (kurie, beje, atminkite, kad yra tų, kurie tyčia kuria ir naudoja dirbtinį intelektą piktiems tikslams, o tai vis labiau domina nusikaltėlius ir kitus, norinčius panaudoti AI nedorai veiklai).

Atsiprašome, bet yra noras manyti, kad visi nepiktybiški AI kūrėjai ketina griežtai įsitikinti, kad jų AI visiškai laikosi įstatymų. Gali būti, kad AI savarankiškai prisitaiko ir įsitraukia į nelegalią veiklą. Žinoma, taip pat yra galimybė, kad dirbtinio intelekto kūrėjai arba norėjo, kad AI veiktų neteisėtai, arba kad jie nežinojo, kas yra neteisėti, palyginti su teisiniais veiksmais kurdami AI (taip, tai visiškai įmanoma, būtent Visiškai nusiteikusi visų technologijų DI komanda gali nežinoti teisinių savo dirbtinio intelekto gudrybių, o tai nepateisinama, tačiau vis tiek nutinka nerimą keliantį dažnį).

Ką galima dėl to padaryti?

Vėlgi, ne tik stengiamasi užtikrinti, kad dirbtinis intelektas būtų patikimas ir teisėtas, bet ir papildomas būdas įgyti pagreitį – įterpti arba implantuoti AI komponentą, kuris atlieka teisėtą dvigubą likusios AI programos dalies patikrinimą. Sėdėdamas tyliai ir dažnai neskelbiamas, šis papildomas AI stebi likusį AI, siekdamas nustatyti, ar AI bus nesąžininga, ar bent jau peržengs teisinių ar reguliavimo nustatytų apribojimų ribas.

Dabar turime dviejų tipų AI dvigubą tikrinimą, kurie gali būti įterpti į AI programą:

  • AI etikos dvigubas tikrintuvas: Realiuoju laiku šis komponentas arba AI priedas įvertina likusį AI etišką ir neetišką elgesį, kurį AI rodo.
  • AI teisinis dvigubas tikrintuvas: Realiuoju laiku šis komponentas arba dirbtinio intelekto priedas įvertina likusią AI dalį, kad būtų užtikrintas laikymasis teisinių kertinių akmenų ribose ir AI užfiksuotų naujų neteisėtų veiksmų.

Paaiškinkime, tai yra palyginti naujos koncepcijos, todėl šiandien naudojamas AI gali būti bet kurios iš šių dabartinių sąlygų:

  • AI, kuriame nėra dvigubų tikrintuvų
  • Dirbtinis intelektas, turintis AI etikos dvigubą tikrintuvą, bet neturintis kitų dvigubų tikrintuvų
  • Dirbtinis intelektas, turintis AI Legal dvigubą tikrintuvą, bet neturintis kitų dvigubų tikrintuvų
  • DI, turintis dvigubą AI etikos ir AI teisinį tikrintuvą
  • kitas

Yra keletas labai sudėtingų aspektų, kai dirbtinio intelekto etikos ir AI teisės dvigubos patikros priemonės AI programoje veikia kartu kaip brolis ir sesuo. Tai dualizmo tipas, kurį gali būti sunkiau koordinuoti, nei jūs taip manote (manau, kad visi žinome, kad broliai ir seserys gali turėti tvirčiausius ryšius, nors jie taip pat gali retkarčiais kovoti kaip pečiai ir energingai priešintis Peržiūrėjo).

Aš ilgai aptariau tokio tipo sudėtingus dalykus dualizmas: „Socialinio gėrio dirbtinio intelekto srityje atsiranda apleistas dualizmas, susijęs su tuo, kad pažangiose AI sistemose neapima dirbtinės moralinės agentūros ir dirbtinio teisinio samprotavimo vaidmens. DI tyrėjai ir AI kūrėjai dažniausiai sutelkė dėmesį į tai, kaip sukurti ir įterpti dirbtinius moralinius agentus, kurie padėtų priimti moralinius sprendimus, kai dirbtinio intelekto sistema veikia šioje srityje, tačiau nebuvo sutelkta ir į dirbtinių teisinių samprotavimo galimybių naudojimą. , kuris taip pat būtinas siekiant tvirtų moralinių ir teisinių rezultatų“ (Lance Eliot, „The Neglected Dualism Of Artificial Moral Agency and Artificial Legal Reasoning In AI for Social Good“, Harvardo universiteto CRCS metinė konferencija, 2020 m. Harvardo tyrimų ir skaičiavimo draugijos centras)

Jei norite išsiaiškinti, kodėl gali kilti įtampa tarp dirbtinio intelekto etikos ir AI teisinio patikrinimo, galite rasti šią žymią mintį verčiančio konceptualaus vertingumo citatą: „Įstatymas gali leisti tam tikrą veiksmą, nors tas poelgis yra amoralus; ir įstatymas gali uždrausti veiksmą, net jei toks veiksmas yra moraliai leistinas ar net moraliai reikalingas“ (Shelly Kagan, Moralės ribos, 1998).

Šiek tiek perkelkime dėmesį ir pažiūrėkime, kaip šie dvigubi tikrintuvai susilieja su kita labai kruopščiai išnagrinėta AI tema, būtent Atsakingas AI arba suderintas žmogiškųjų vertybių ir dirbtinio intelekto derinimo svarstymas.

Bendra nuostata yra ta, kad norime dirbtinio intelekto, kuris atitiktų tinkamas ir geidžiamas žmogaus vertybes. Kai kurie tai vadina Atsakingas AI. Panašiai diskutuoja ir kiti Atsakingas AI, Patikimas AIir AI lygiavimas, kurie visi susiję su tuo pačiu kertiniu principu. Mano diskusija šiais svarbiais klausimais žr nuoroda čia ir nuoroda čia, Tik pavadinimas kelias.

Kaip galime priversti dirbtinį intelektą suderinti su žmogaus vertybėmis?

Kaip buvo pasiūlyta anksčiau, tikimės, kad dirbtinio intelekto kūrėjai žinos, kaip sukurti DI, kuris atitiktų atsakingą AI. Deja, jie gali ne dėl anksčiau išaiškintų priežasčių. Be to, jie gali bandyti tai padaryti, bet vis dėlto dirbtinis intelektas baigia prisitaikyti už etiško elgesio ribų arba galbūt patenka į neteisėtus vandenis.

Gerai, mes turime apsvarstyti savo patogius dvigubus tikrintuvus kaip priemonę sumažinti šią riziką ir riziką. Naudojant gerai suplanuotą AI etikos dvigubą tikrintuvą, galima materialiai padėti suderinti AI su žmogiškosiomis vertybėmis. Panašiai, naudojant gerai suplanuotą AI teisinį dvigubą tikrintuvą, galima iš esmės padėti suderinti AI su žmogiškosiomis vertybėmis.

Taigi esminė ir dar nelabai žinoma priemonė norint pasiekti atsakingą AI, patikimą AI, atskaitingą AI, AI suderinimą ir kt. būtų DI dvigubo tikrinimo priemonių, tokių kaip AI etikos dvigubas tikrintuvas ir AI Legal dvigubas tikrintuvas, kuris nenuilstamai veiktų kaip dvigubas AI patikrinimas, ar jie yra įterpti.

Šioje diskusijoje norėčiau išsamiau papasakoti apie dirbtinio intelekto teisinių patikrinimų, kurie gali būti įterpti į AI, pobūdį ir konstrukcijas. Norėdami tai padaryti, gali būti naudinga pasidalinti su jumis šiek tiek papildomos informacijos apie bendrą temą AI ir teisė.

Norėdami sužinoti, kaip dirbtinis intelektas ir įstatymai susimaišo vienas su kitu, žiūrėkite mano diskusiją adresu nuoroda čia. Mano įžvalgiu žvilgsniu į AI ir teisė sujungimo, pateikiu šią paprastą dviejų pagrindinių būdų, kaip susieti AI ir įstatymus, sampratą:

  • (1) Įstatymas, taikomas AI: Įstatymų, taikomų reguliuojant ar valdant dirbtinį intelektą mūsų visuomenėje, formulavimas, priėmimas ir vykdymas.
  • (2) AI-applied to-Law: Sukurta ir įstatyme pritaikyta dirbtinio intelekto technologija, įskaitant dirbtiniu intelektu pagrįstą teisinį pagrindimą (AILR), įterptą į „LegalTech“ aukštųjų technologijų programas, kad būtų galima savarankiškai arba pusiau autonomiškai atlikti teisininko užduotis.

Pirmasis išvardintas požiūris apima svarstymą, kaip esami ir nauji įstatymai valdys AI. Antroji išvardyta perspektyva yra susijusi su AI taikymu įstatymui.

Pastaroji kategorija paprastai apima AI pagrįstą teisinį pagrindimą (AILR) įvairiuose teisininkų naudojamuose internetiniuose įrankiuose. Pavyzdžiui, dirbtinis intelektas gali būti Sutarčių gyvavimo ciklo valdymo (CLM) paketo dalis, padedanti advokatams nustatyti sutarčių kalbą, kuri bus naudinga rengiant naujas sutartis, arba gali aptikti sutartis, kuriose yra teisiškai nepatogios kalbos, leidžiančios išvengti nesėkmių ar teisinių spragų. (Norėdami pažvelgti į vadinamuosius „įstatymo kvapus“, kuriuos gali atpažinti AI, žr nuoroda čia).

Neišvengiamai turėsime dirbtinio intelekto taikymą įstatymui, kuris bus prieinamas plačiajai visuomenei ir nereikalauja, kad advokatas būtų informuotas. Šiuo metu dėl įvairių apribojimų, įskaitant UPL (neteisėtą praktiką), dirbtinio intelekto pagrindu veikiančių teisinių konsultacijų programėlių teikimas yra sudėtingas ir prieštaringas dalykas, žr. mano diskusiją adresu nuoroda čia.

Šį įvadą apie AI ir teisę iškėliau norėdamas atkreipti dėmesį į tai, kad dar vienas instrumentinis AI panaudojimas, taikomas įstatymams, būtų dirbtinio intelekto teisinių patikrinimų kūrimas.

Taip, toks pat technologinis meistriškumas, susijęs su AI taikymu įstatyme, gali būti dviguba pareiga, naudojant AI kaip įterptąjį arba implantuotą dirbtinio intelekto teisinį patikrinimą. AI teisinis dvigubas tikrintuvas yra komponentas, kuris turi būti susipažinęs su teisiniais aspektais. Kai likusi AI programėlė atlieka įvairius veiksmus, AI Legal dvigubas tikrintuvas įvertina, ar AI programa tai atlieka teisėtai ir neviršija teisėtų apribojimų.

AI Legal dvigubo tikrinimo komponentas nebūtinai turi apimti visą spektrą visko, ką reikia žinoti apie įstatymus. Atsižvelgiant į AI programos pobūdį, atsižvelgiant į AI tikslą ir veiksmus, AI teisinis patikrinimas gali būti daug siauresnis, atsižvelgiant į joje esančią teisinę patirtį.

Radau naudingą sistemą, skirtą parodyti, kaip AI teisinėje srityje svyruoja įvairiose autonominėse galimybėse, vadinamose autonomijos lygiais (LoA). Apžvalgą rasite mano "Forbes" 21 m. lapkričio 2022 d. stulpelio įrašas „Nesąmoningas ir įtikinamas atvejis, kodėl teisininkai turi žinoti apie dirbtinį intelektą ir įstatymą“ adresu nuoroda čia, o išsamaus techninio vaizdavimo ieškokite mano išsamaus tyrimo straipsnyje MIT skaičiavimo teisės žurnalas 7 m. gruodžio 2021 d., žr nuoroda čia.

Sistema išaiškina penkis AI lygius, naudojamus teisinėse pastangose:

  • 0 lygis: nėra automatizavimo dirbtiniu intelektu pagrįstam teisiniam darbui
  • 1 lygis: paprastas pagalbos automatizavimas dirbtiniu intelektu pagrįstam teisiniam darbui
  • 2 lygis: pažangus pagalbos automatizavimas dirbtiniu intelektu pagrįstam teisiniam darbui
  • 3 lygis: pusiau autonominis dirbtinio intelekto teisinio darbo automatizavimas
  • 4 lygis: domenas nepriklausomas dirbtiniu intelektu pagrįstam teisiniam darbui
  • 5 lygis: visiškai savarankiškas dirbtiniu intelektu pagrįstam teisiniam darbui

Čia trumpai juos aprašysiu.

0 lygis laikomas be automatizavimo lygiu. Teisiniai argumentai ir teisinės užduotys atliekamos rankiniu būdu ir dažniausiai popieriuje.

1 lygį sudaro paprastas AI teisinio pagrindimo pagalbos automatizavimas. Šios kategorijos pavyzdžiai apimtų kasdienį kompiuterinį tekstų apdorojimą, kasdienių kompiuterinių skaičiuoklių naudojimą, prieigą prie internetinių teisinių dokumentų, kurie saugomi ir gaunami elektroniniu būdu, ir pan.

2 lygį sudaro pažangios pagalbos automatizavimas, skirtas dirbtinio intelekto teisiniams argumentams. Šios kategorijos pavyzdžiai būtų užklausos stiliaus elementarus natūralios kalbos apdorojimas (NLP), supaprastinti mašininio mokymosi (ML) elementai, statistinės analizės įrankiai teisiniams atvejams numatyti ir kt.

3 lygį sudaro pusiau autonominė AI teisinio pagrindimo automatizacija. Šios kategorijos pavyzdžiai apimtų pažangių žiniomis pagrįstų sistemų (KBS) naudojimą teisiniam samprotavimui, mašininio mokymosi ir giluminio mokymosi (ML/DL) naudojimą teisiniam samprotavimui, pažangias NLP ir pan.

4 lygį sudaro autonominės kompiuterinės sistemos, skirtos dirbtinio intelekto teisiniams argumentams. Šiame lygyje pakartotinai naudojama konceptuali operatyvinio projektavimo domenų (ODD) sąvoka, naudojama savarankiškai važiuojantiems automobiliams, bet taikoma teisinėje srityje. Teisės sritis gali būti klasifikuojama pagal funkcines sritis, pvz., šeimos teisę, nekilnojamojo turto teisę, bankroto teisę, aplinkos teisę, mokesčių teisę ir kt.

5 lygis susideda iš visiškai autonominių kompiuterinių sistemų, skirtų dirbtinio intelekto teisiniams argumentams. Tam tikra prasme 5 lygis yra 4 lygio viršūnė, apimanti visas įmanomas teisines sritis. Atminkite, kad tai gana didelis užsakymas.

Šiuos autonomijos lygius galite įsivaizduoti kaip panašius atvejus, kai kalbame apie savarankiškai važiuojančius automobilius ir autonomines transporto priemones (taip pat remiantis oficialiu SAE standartu, žr. nuoroda čia). Dar neturime SAE 5 lygio savaeigių automobilių. Mes pereiname prie SAE 4 lygio savaeigių automobilių. Dauguma įprastų automobilių yra SAE 2 lygio, o kai kurie naujesni automobiliai patenka į SAE 3 lygį.

Teisės srityje mes dar neturime 5 lygio AILR. Mes liečiame tam tikrą 4 lygį, nors ir labai siauruose ODD. 3 lygis pradeda matyti dienos šviesą, o pagrindinis AILR atrama šiandien yra 2 lygis.

Neseniai paskelbtame moksliniame straipsnyje apie AI, taikomą įstatymui, buvo pateiktas tipiškumas, žinomas kaip Įstatymas informuoja kodeksą. Tyrėjas teigia taip: „Vienas iš pagrindinių tikslų Įstatymas informuoja kodeksą darbotvarkė yra išmokyti dirbtinį intelektą vadovautis įstatymo dvasia“ (John J. Nay, „Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans“, „Northwestern Journal of Technology and Intellectual Property“., 20 tomas, pasirodys). Yra keletas esminių svarstymų, kad Įstatymas informuoja kodeksą Mantra iškelia ir aš jums paaiškinsiu keletą tų kertinių akmenų nurodymų.

Prieš pasinerdamas į temą, pirmiausia norėčiau pakloti esminius AI pagrindus, ypač AI etiką ir dirbtinio intelekto įstatymą, siekdamas užtikrinti, kad diskusija būtų kontekstualiai pagrįsta.

Didėjantis supratimas apie etinį AI ir taip pat dirbtinio intelekto įstatymą

Naujausia AI era iš pradžių buvo laikoma tokia AI for Good, tai reiškia, kad galėtume panaudoti AI žmonijos tobulinimui. Ant kulnų AI for Good atėjo supratimas, kad mes taip pat pasinėrėme AI For Bad. Tai apima dirbtinį intelektą, kuris yra sukurtas arba savaime pakeistas į diskriminacinį ir priimantis skaičiavimo sprendimus, sukeldamas nepagrįstą šališkumą. Kartais dirbtinis intelektas yra sukurtas tokiu būdu, o kitais atvejais jis nukrypsta į tą nepalankią teritoriją.

Noriu visiškai įsitikinti, kad esame tame pačiame puslapyje dėl šiandieninio AI pobūdžio.

Šiandien nėra jokio jautraus dirbtinio intelekto. Mes šito neturime. Mes nežinome, ar jautrus AI bus įmanomas. Niekas negali tiksliai nuspėti, ar pasieksime jausmingą AI, nei ar jausmingasis AI kažkaip stebuklingai spontaniškai atsiras kompiuterinės kognityvinės supernovos pavidalu (dažniausiai vadinama singuliarumu, žr. mano aprėptį adresu nuoroda čia).

AI, į kurį daugiausia dėmesio skiriu, tipas susideda iš nejautrios AI, kurią turime šiandien. Jei norėtume pašėlusiai spėlioti apie jausmingą AI, ši diskusija galėtų vykti radikaliai kita linkme. Jausmingas AI tariamai būtų žmogiškos kokybės. Turėtumėte atsižvelgti į tai, kad jautrus AI yra pažintinis žmogaus atitikmuo. Be to, kadangi kai kurie spėja, kad galime turėti itin intelektualų AI, gali būti, kad toks DI gali būti protingesnis už žmones (dėl mano, kaip galimos itin intelektualaus DI, tyrinėjimo žr. aprėptis čia).

Primygtinai siūlyčiau viską laikytis žemiškai ir atsižvelgti į šiandieninį skaičiavimo nejautinį AI.

Supraskite, kad šiandieninis dirbtinis intelektas nesugeba „mąstyti“ niekaip, kaip ir žmogaus mąstymas. Kai bendraujate su „Alexa“ ar „Siri“, pokalbio gebėjimai gali atrodyti panašūs į žmogaus gebėjimus, tačiau realybė yra tokia, kad tai skaičiuojama ir jam trūksta žmogaus pažinimo. Naujausioje AI eroje plačiai naudojamas mašininis mokymasis (ML) ir gilusis mokymasis (DL), kurie naudoja skaičiavimo modelių suderinimą. Tai paskatino dirbtinio intelekto sistemas, kurios atrodo kaip žmogaus polinkiai. Tuo tarpu šiandien nėra nė vieno dirbtinio intelekto, kuris turėtų sveiko proto ir kognityvinio nuostabaus tvirto žmogaus mąstymo.

Būkite labai atsargūs antropomorfizuodami šiandieninį AI.

ML/DL yra skaičiavimo modelių derinimo forma. Įprastas būdas yra rinkti duomenis apie sprendimo priėmimo užduotį. Duomenis tiekiate į ML/DL kompiuterių modelius. Šie modeliai siekia rasti matematinius modelius. Radusi tokius modelius, jei taip bus, AI sistema naudos tuos modelius, kai susidurs su naujais duomenimis. Pateikus naujus duomenis, dabartiniam sprendimui priimti taikomi modeliai, pagrįsti „senais“ arba istoriniais duomenimis.

Manau, galite atspėti, kur tai link. Jei žmonės, priimdami pagrįstus sprendimus, įtraukė nepalankų šališkumą, tikėtina, kad duomenys tai atspindi subtiliai, bet reikšmingai. Mašininio mokymosi arba giluminio mokymosi skaičiavimo modelių derinimas tiesiog bandys atitinkamai matematiškai imituoti duomenis. AI sukurtame modeliavime per se nėra jokio sveiko proto ar kitų jautrių aspektų.

Be to, AI kūrėjai taip pat gali nesuvokti, kas vyksta. Dėl paslaptingos ML/DL matematikos gali būti sunku išsklaidyti dabar paslėptus šališkumus. Jūs pagrįstai tikėtumėte ir tikitės, kad AI kūrėjai išbandys galimai palaidotus šališkumus, nors tai yra sudėtingiau, nei gali atrodyti. Yra didelė tikimybė, kad net ir atlikus gana platų testavimą, ML/DL modelių atitikimo modeliuose vis tiek bus paklaidų.

Galite šiek tiek pasinaudoti garsiuoju ar liūdnai pagarsėjusiu posakiu apie šiukšlių išvežimą. Reikalas tas, kad tai labiau panašu į šališkumą, kuris klastingai įsiskverbia į AI paskendusį šališkumą. AI sprendimų priėmimo algoritmas (ADM) aksiomatiškai apkraunamas nelygybe.

Negerai.

Visa tai turi ypač reikšmingų AI etikos pasekmių ir siūlo patogų langą į išmoktas pamokas (net prieš tai, kai įvyksta visos pamokos), kai kalbama apie AI įstatymą.

Be AI etikos nuostatų taikymo apskritai, kyla atitinkamas klausimas, ar turėtume turėti įstatymus, reglamentuojančius įvairius AI naudojimą. Federaliniu, valstijos ir vietiniu lygmenimis rengiami nauji įstatymai, susiję su DI kūrimo įvairove ir pobūdžiu. Pastangos rengti ir priimti tokius įstatymus vyksta laipsniškai. Dirbtinio intelekto etika yra bent jau apsvarstyta priemonė ir beveik neabejotinai tam tikru mastu bus tiesiogiai įtraukta į tuos naujus įstatymus.

Žinokite, kad kai kurie griežtai tvirtina, kad mums nereikia naujų įstatymų, apimančių AI, ir kad mūsų esamų įstatymų pakanka. Jie įspėja, kad jei priimsime kai kuriuos iš šių dirbtinio intelekto įstatymų, užmušime auksinę žąsį, apribodami dirbtinio intelekto pažangą, teikiančią didžiulių socialinių pranašumų.

Ankstesnėse skiltyse aprašiau įvairias nacionalines ir tarptautines pastangas rengti ir priimti įstatymus, reglamentuojančius dirbtinį intelektą, žr. nuoroda čia, pavyzdžiui. Taip pat aprašiau įvairius dirbtinio intelekto etikos principus ir gaires, kurias nustatė ir priėmė įvairios tautos, įskaitant, pavyzdžiui, Jungtinių Tautų pastangas, tokias kaip UNESCO AI etikos rinkinys, kurį priėmė beveik 200 šalių, žr. nuoroda čia.

Čia yra naudingas pagrindinis etinių AI kriterijų arba charakteristikų, susijusių su AI sistemomis, kurias anksčiau atidžiai tyrinėjau, sąrašas:

  • Skaidrumas
  • Teisingumas ir sąžiningumas
  • Nepiktybiškumas
  • atsakomybė
  • Privatumo politika
  • Gerumas
  • Laisvė ir autonomija
  • Pasitikėkite
  • Tvarumas
  • orumas
  • Solidarumas

Šiuos AI etikos principus nuoširdžiai turėtų taikyti AI kūrėjai, taip pat tie, kurie valdo dirbtinio intelekto kūrimo pastangas, ir netgi tie, kurie galiausiai kuria ir atlieka AI sistemų priežiūrą.

Visos suinteresuotosios šalys per visą DI kūrimo ir naudojimo gyvavimo ciklą laikosi nustatytų etiško AI normų. Tai svarbus akcentas, nes įprasta prielaida, kad „tik koduotojai“ arba tie, kurie programuoja AI, turi laikytis AI etikos sąvokų. Kaip jau buvo pabrėžta, dirbtinio intelekto kūrimui ir įgyvendinimui reikia kaimo, kuriame visas kaimas turi išmanyti ir laikytis AI etikos nuostatų.

Aš taip pat neseniai išnagrinėjau AI teisių įstatymas Tai yra oficialus JAV vyriausybės oficialaus dokumento, pavadinto „AI Bill of Rights: Makeing Automated Systems Work for the American People“, pavadinimas, kuris buvo metus trukusių Mokslo ir technologijų politikos biuro (OSTP) pastangų rezultatas. ). OSTP yra federalinis subjektas, teikiantis patarimus Amerikos prezidentui ir JAV vykdomajai tarnybai įvairiais nacionalinės svarbos technologiniais, moksliniais ir inžineriniais aspektais. Šia prasme galima sakyti, kad šis AI Bill of Rights yra esamų JAV Baltųjų rūmų patvirtintas ir jų patvirtintas dokumentas.

AI teisės akte yra penkios pagrindinės kategorijos:

  • Saugios ir efektyvios sistemos
  • Algoritminė diskriminacijos apsauga
  • Duomenų privatumas
  • Įspėjimas ir paaiškinimas
  • Žmogaus alternatyvos, svarstymas ir atsargos

Aš atidžiai peržiūrėjau tuos nurodymus, žr nuoroda čia.

Dabar, kai padėjau naudingą pagrindą šioms susijusioms AI etikos ir AI teisės temoms, esame pasirengę pereiti į svaiginančią AI teisinių patikrinimų temą ir sferą Įstatymas informuoja kodeksą.

AI teisinės dvigubos patikros priemonės, įterptos į dirbtinį intelektą, kad būtų suderinta žmogaus vertė

Kartais remiuosi AI Legal Double-Checkers per AI-LDC akronimą. Tai vizualiai šiek tiek erzina tiems, kurie nėra susipažinę su akronimu. Todėl šioje diskusijoje nenaudosiu šio konkretaus akronimo, bet norėjau jį paminėti kaip įspėjimą.

Norėdami atskleisti kai kuriuos AI Legal dvigubo tikrinimo sudėtingumus, atkreipkime dėmesį į šiuos pagrindinius dalykus:

  • AI teisinių dvigubų tikrintuvų naudojimas kaip AI žmogaus vertybių derinimo mechanizmas
  • Didesniam dirbtiniam intelektui atitinkamai reikės patikimesnių AI teisinių patikrinimų
  • AI teisiniai tikrintojai priima įstatymą ir ypač nekuria įstatymų (greičiausiai)
  • Subtilus pusiausvyra tarp dirbtinio intelekto Teisinio įstatymo, kaip taisyklių ir standartų, įgyvendinimo
  • Reikalauti įrodymo, kad AI laikosi įstatymų

Dėl erdvės apribojimų kol kas pateiksiu tik tuos penkis punktus, tačiau laukite tolesnio aprėpties mano stulpelyje, kuriame bus aptariami papildomi ir ne mažiau svarbūs svarstymai šiais greitai besikeičiančiais ir į priekį judančiais klausimais.

Jau dabar prisisegkite saugos diržą ir pasiruoškite gaivinančiai kelionei.

  • AI teisinių dvigubų tikrintuvų naudojimas kaip AI žmogaus vertybių derinimo mechanizmas

Yra daugybė būdų, kaip pabandyti pasiekti darnų AI ir žmogiškųjų vertybių derinimą.

Kaip minėta anksčiau, galime parengti ir skelbti AI etikos nuostatas ir siekti, kad AI kūrėjai ir tie, kurie kuria ir naudoja dirbtinį intelektą, laikytųsi šių pagrindinių dalykų. Deja, vien tai nepadės. Turite keletą sumanytojų, kurie neišvengiamai nesulauks pranešimo. Turite keletą sumanytojų, kurie puikuosis etišku dirbtiniu intelektu ir bandys apeiti šiek tiek nešvankius nustatytus principus. Ir taip toliau.

„Nešvelnosios teisės“ metodų taikymas, susijęs su AI etika, beveik nenumaldomai turi būti siejamas su „griežtosios teisės“ būdais, pavyzdžiui, įstatymų ir kitų teisės aktų priėmimu, kurie siųs didelį signalą visiems, kurie kuria ar naudoja dirbtinį intelektą. Jei neapgalvotai naudosite dirbtinio intelekto svertus, jus gali padėti ilga įstatymo ranka. Kalėjimo durų girgždesys galėtų sulaukti didelio dėmesio.

Tačiau didelė problema yra ta, kad kartais tvarto durys jau išleidžia arklius. Sukurtas dirbtinis intelektas gali atlikti įvairius neteisėtus veiksmus ir toliau tai darys tol, kol bus ne tik sučiuptas, bet ir tada, kai pagaliau bus imtasi veiksmų, kad sustabdytų neteisėtų veiksmų srautą. Visa tai gali užtrukti. Tuo tarpu žmonėms vienokiu ar kitokiu būdu daroma žala.

Į šį įsiveržimą ateina AI Legal dvigubas tikrintuvas.

Dirbdamas dirbtinio intelekto programoje, AI Legal dvigubas tikrintuvas gali iš karto nustatyti, kada atrodo, kad AI pažeidžia įstatymus. AI Legal dvigubas tikrintuvas gali sustabdyti AI. Arba komponentas gali įspėti žmones apie pastebėtą neteisėtą veiklą, darydamas tai laiku, o tai gali paskatinti prižiūrėtojus imtis skubių taisomųjų veiksmų. Taip pat yra svarstomas formalizuotas registravimas, kurį komponentas galėtų sukurti, suteikdamas apčiuopiamą audito sekos įvaizdį, siekiant koduoti neigiamus AI veiksmus.

Manoma, kad mūsų įstatymai yra kelių agentų susibūrimo forma, todėl įstatymai neišvengiamai yra mišinys to, ką visuomenė siekė sukurti kaip pusiausvyrą tarp galimų prieštaringų požiūrių apie tinkamą ir netinkamą visuomenės elgesį. Todėl mūsų įstatymais pagrįstas AI teisinis tikrintuvas įkūnija šį mišinį.

Pažymėtina, kad tai daugiau nei tik galutinių teisinių taisyklių sąrašo sudarymas. Įstatymai paprastai būna lankstesni ir siekia visa apimančių standartų, o ne nusako smulkiausias mikroskopines taisykles. Sudėtingumo yra daug.

Grįžtant prie anksčiau pažymėto tyrimo dokumento, štai kaip šie samprotavimai taip pat gali būti vertinami dėl AI suderinimo siekimo: „Teisė, taikoma kelių agentų derinimo filosofija, unikaliai atitinka šiuos kriterijus. Suderinimas yra problema, nes negalime ex-ante nurodykite taisykles, kurios visiškai ir įrodomai nukreipia gerą AI elgesį. Taip pat teisinės sutarties šalys negali numatyti visų savo santykių atsitiktinumų, o įstatymų leidėjai negali numatyti konkrečių aplinkybių, kurioms esant bus taikomi jų įstatymai. Štai kodėl didelė dalis teisės yra standartų visuma“ (ten pat).

Įterpti įstatymą į AI Teisinį dvigubą tikrintuvą yra daug sudėtingiau, nei galėtumėte iš pradžių manyti.

Tobulėjant dirbtiniam intelektui, turėsime atitinkamai pasinaudoti tokia pažanga. Pasirodo, kas tinka žąsienai, tinka ir gandrai. Tie iš mūsų, kurie daro pažangą dirbtinio intelekto srityje, kaip taiko įstatymą, stumia AI voką ir neabejotinai kuria naujus pasiekimus, kurie galiausiai gali prisidėti prie DI pažangos.

  • Didesniam dirbtiniam intelektui atitinkamai reikės patikimesnių AI teisinių patikrinimų

Katės ir pelės gambitas susiduria su šia tema.

Tikėtina, kad dirbtiniam intelektui tobulėjant, bet kuriam AI teisiniam dvigubo tikrinimo komponentui bus vis sunkiau susidoroti. Pavyzdžiui, tikrinama AI programėlė galėjo naujai sukurti itin slaptus būdus, kaip paslėpti neteisėtus AI veiksmus. Net jei dirbtinis intelektas nesirenka nesąžiningu keliu, vien bendras AI sudėtingumas gali būti bauginanti kliūtis norint, kad AI teisinis patikrinimas būtų įvertintas.

Štai kaip tai tampa ypač reikšminga.

Tarkime, dirbtinio intelekto kūrėjas ar kuri nors dirbtinį intelektą naudojanti įmonė paskelbia, kad dirbtinio intelekto programoje yra AI Legal dvigubas tikrintuvas. Voila, atrodo, kad dabar jie nusiplovė rankas nuo bet kokių tolesnių rūpesčių. Viskuo pasirūpins AI Legal dvigubas tikrintuvas.

Ne taip.

AI Legal dvigubo tikrinimo priemonės gali nepakakti, atsižvelgiant į susijusios AI programos pobūdį. Taip pat yra galimybė, kad AI Legal dvigubas tikrintuvas pasens ir galbūt nebus atnaujintas pagal naujausius įstatymus, susijusius su AI programa. Galima numatyti daugybę priežasčių, kodėl vien AI Legal dvigubo tikrinimo buvimas nebus sidabrinė kulka.

Apsvarstykite šias anksčiau cituotų tyrimų įžvalgas: „Tobulėjant DI technologijoms, galime nustatyti nuolat aukštesnes parodytų teisinio supratimo galimybių ribas. Jei kūrėjas teigia, kad jo sistema turi pažangių užduočių galimybių, jis turėtų parodyti atitinkamai pažangų teisinį supratimą ir teisinius, AI gebėjimus, kurie praktiškai neturi jokių sunkumų, kai atsižvelgiama į įstatymų ir kitų teisės aktų nešvarumus laikui bėgant, precedentus ir jurisdikciją. “ (ten pat).

  • AI teisiniai tikrintojai priima įstatymą ir ypač nekuria įstatymų (greičiausiai)

Esu tikras, kad kai kurie iš jūsų yra pasipiktinę idėja turėti šiuos AI Legal dvigubus tikrintuvus.

Vienas dažnai išsakytas susirūpinimas yra tas, kad, matyt, leisime dirbtiniam intelektui priimti mūsų įstatymus už mus. Dieve, galbūt galvojate, kad koks nors automatikos gabalas aplenks žmoniją. Tie siaubingi įterptieji dirbtinio intelekto teisiniai patikrinimai taps numatytais mūsų įstatymų karaliais. Kad ir ką jie bedarytų, atrodys taip, kaip atrodo įstatymas.

Žmones valdys AI.

Ir šios AI Legal dvigubos patikros yra slidus šlaitas, kuris mus veda.

Kontrargumentas yra tas, kad tokios kalbos yra sąmokslo teorijų dalykas. Jūs pašėlusiai postuluojate ir patenkate į slogą. Realybė yra tokia, kad šie dirbtinio intelekto teisiniai tikrintojai nėra jautrūs, jie nesiruošia užvaldyti planetos, o ažiotažas apie jų egzistencinę riziką yra akivaizdžiai absurdiška ir nepaprastai pervertinta.

Apskritai, būdami ramūs ir pagrįsti, turime nepamiršti, kad dirbtinio intelekto teisinės kontrolės priemonės padeda tinkamai atspindėti įstatymus, o ne dėl sumanymo ar atsitiktinumo, kad kažkaip nepatektų į gerbiamą kūrimo sritį. įstatymas. Atmetus jausmų ekstrapoliacijas, tikrai galime sutikti, kad yra tikras ir neatidėliotinas susirūpinimas, kad AI Legal dvigubas tikrintuvas gali klaidingai pateikti tikrąjį konkretaus įstatymo pobūdį.

Savo ruožtu galite teigti, kad dėl to tas konkretus „klaidingai pateiktas“ įstatymas iš esmės yra iš naujo, nes jis nebetaikiai reiškia to, ko buvo siekiama tikruoju įstatymu. Tikiu, kad atvirai suprantate, kaip tai subtilus, bet daug pasakantis svarstymas. Bet kuriuo metu dirbtinio intelekto teisinis tikrintuvas gali virtualiai priimti naujus įstatymus arba, sakykime, „haliucinuoti“ vien dėl to, kaip AI komponentas interpretuoja įstatymą taip, kaip iš pradžių buvo nurodyta arba įtraukta į AI (mano aprėptis). AI vadinamasis haliucinacijos, Žr. nuoroda čia).

Šiuo klausimu reikia atidžiai stebėti.

Šia tema minėtame tyrimo tyrime pateikiama tokia paralelinė mintis, siekiant išvengti šios šventos linijos peržengimo: „Mes nesiekiame, kad dirbtinis intelektas turėtų teisėtumą priimti įstatymus, sukurti teisinį precedentą ar vykdyti įstatymus. Tiesą sakant, tai pakenktų mūsų požiūriui (ir turėtume įdėti daug pastangų, kad to išvengtume). Atvirkščiai, ambicingiausias Teisės informavimo kodekso tikslas yra skaičiuoti ir įterpti esamų teisinių sąvokų ir standartų apibendrinimą į patvirtintą AI veikimą“ (ten pat).

  • Subtilus pusiausvyra tarp dirbtinio intelekto Teisinio įstatymo, kaip taisyklių ir standartų, įgyvendinimo

Įstatymai netvarkingi.

Tikėtina, kad beveik bet kuriame knygų įstatyme yra daugybė aiškinimų apie tai, ką įstatymas numato faktinėje praktikoje. Kalbant apie AI sritį, mes vadiname dėsnius kaip semantiškai dviprasmiškus. Dėl šios priežasties įstatymams taikomo dirbtinio intelekto kūrimas yra toks jaudinantis ir kartu varginantis iššūkis. Skirtingai nuo tikslaus skaičiaus, kurį galite pastebėti, tarkime, į finansines AI programas, noras įkūnyti mūsų įstatymus į AI reiškia susidoroti su semantinių dviprasmybių cunamis.

Savo fondo knygoje apie dirbtinio intelekto teisinio samprotavimo (AILR) pagrindus aptariu, kaip ankstesni bandymai tik kodifikuoti įstatymus į ribotų taisyklių rinkinį nepadėjo mūsų teisės srityje tiek, kiek norėtume (žr. nuoroda čia). Šiandienos AILR turi apimti integraciją tarp taisyklių naudojimo ir tai, kas gali būti vadinama visa apimančiais standartais, kuriuos atstovauja įstatymas.

Šią svarbią pusiausvyrą galima išreikšti taip: „Praktikoje dauguma teisinių nuostatų patenka į spektrą tarp grynos taisyklės ir gryno standarto, o teisės teorija gali padėti įvertinti tinkamą „taisykliškumo“ ir „standartiškumo“ derinį. nurodant AI sistemų tikslus“ (ten pat).

  • Reikalauti įrodymo, kad AI laikosi įstatymų

Kažko norėti yra kitaip nei ką nors turėti.

Ši išmintis iškyla siūlant, kad nors galbūt norėtume turėti AI Legal dvigubą tikrintuvą, turime būti tikri, kad jie veikia ir veikia tinkamai. Atminkite, kad tai yra dar viena sunki ir alinanti kliūtis. Anksčiau aprašiau naujausius AI tikrinimo ir patvirtinimo pasiekimus ir iššūkius, žr nuoroda čia.

Kaip pažymėta tyrimo dokumente: „Siekdama pašalinti šią spragą, prieš diegiant dirbtinio intelekto modelius vis labiau veikiančiose, pvz., visiškai autonominėse transporto priemonėse pagrindiniuose keliuose, dislokuojanti šalis turėtų parodyti, kad sistema supranta žmogaus tikslus, politiką ir teisinius standartus. Patvirtinimo procedūra galėtų iliustruoti AI „supratimą“ apie teisinių sąvokų „prasmę“ (ten pat).

Išvada

Raginu jus apsvarstyti galimybę prisijungti prie šios kilnios pastangos sukurti ir pritaikyti dirbtinio intelekto teisinius patikrinimus. Mums reikia daugiau dėmesio ir išteklių šiam doram siekiui.

Tai taip pat suteikia dvigubą pareigą, kaip minėta anksčiau, siekiant AI teisinio pagrindimo (AILR), kuris gali būti naudojamas siekiant padėti advokatams ir gali būti tiesiogiai naudojamas plačiajai visuomenei. Iš tiesų, kai kurie įnirtingai įrodinėja, kad vienintelė perspektyvi priemonė pasiekti pilnesnį teisingumo jausmą (A2J) bus dirbtinio intelekto, įkūnijančio teisinius pajėgumus ir visiems prieinamo, sukūrimas.

Dar vienas greitas paskutinis taškas.

Iki šiol vykstančiose diskusijose buvo pabrėžta, kad dirbtinio intelekto teisinis dvigubas tikrintuvas būtų įterptas arba įdiegtas į AI. Tai iš tikrųjų yra pagrindinis dėmesys tų, kurie tyrinėja ir imasi šios besiformuojančios sferos.

Štai klausimas, kurį verta apsvarstyti.

Užsidėkite mąstymo kepurėlę.

Kodėl nepanaudojus AI Legal dvigubo tikrinimo visoje programinėje įrangoje?

Esmė ta, kad užuot naudoję tik AI Legal dvigubą tikrinimą, galbūt turėtume išplėsti savo požiūrį. Visų rūšių programinė įranga gali suklysti teisiškai. Žinoma, dirbtinis intelektas susilaukė liūto dalies dėmesio dėl DI dažniausiai panaudojimo būdų, pavyzdžiui, priimant sudėtingus sprendimus, turinčius įtakos žmonių kasdieniam gyvenimui. Vis dėlto galite lengvai teigti, kad yra daug ne AI sistemų, kurios daro tą patį.

Iš esmės, mes neturėtume leisti jokiai programinei įrangai naudotis nemokamai, kad išvengtume arba išvengtume įstatymų.

Prisiminkite ir anksčiau, kad paminėjau dvi AI ir įstatymo derinimo kategorijas. Čia mes sutelkėme dėmesį į AI naudojimą, kaip tai taikoma įstatymams. Kitoje monetos pusėje yra įstatymų taikymas dirbtiniam intelektui. Tarkime, kad priimame įstatymus, reikalaujančius naudoti AI Legal dvigubus patikrinimus.

Iš pradžių tai gali apsiriboti AI sistemomis, ypač tomis, kurios vertinamos kaip ypač pavojingos. Palaipsniui tas pats AI teisinis dvigubo tikrinimo reikalavimas galėtų būti taikomas ir ne AI programinei įrangai. Vėlgi, jokių nemokamų kelionių.

Kol kalbėsitės apie tai, kas išdėstyta pirmiau, aš paįvairinsiu viską kaip baigiamąjį anonsą. Jei bandysime reikalauti dirbtinio intelekto teisinių dvigubų tikrintojų, taip pat galime elgtis taip pat ir su AI etikos dvigubais tikrintojais. AI teisinės dvigubos patikros naudojimas yra tik pusė istorijos, todėl negalime pamiršti ar pamiršti ir AI etikos problemų.

Baigsiu šį linksmą diskursą viena iš savo mėgstamiausių citatų. Pagal išmintingus Earl Warren, garsaus teisininko, ėjusio JAV vyriausiojo teisėjo pareigas, žodžius: „Civilizuotame gyvenime teisė plaukioja etikos jūroje“.

Galbūt būtų geriausia skubiai panaudoti tuos pradedančius ir burbuliuojančius AI teisinius ir AI etikos dvigubus tikrinimus, jei norime išlaikyti savo galvą aukščiau potencialiai gręsiančios sunkios jūros nuo rūgščios dirbtinio intelekto ir ne AI sistemų, kurios kelia pavojų mūsų saugumui. .

Jie gali būti žmonijos gelbėjimosi liemenė.

Šaltinis: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- ir-ai-teisė/