Politikos formuotojai turi susidoroti su tikrais AI iššūkiais

Sutelkti dėmesį į miglotą AI išnykimo riziką yra pavojingas blaškymas.

Praėjusią savaitę Silicio slėnio finansuojama grupė, pavadinta AI saugos centru, paskelbė vieno sakinio pareiškimą: „Sumažinti AI išnykimo riziką turėtų būti pasaulinis prioritetas kartu su kitomis visuomeninio masto rizikomis, tokiomis kaip pandemijos ir branduolinis karas. Jį pasirašė daugelis pramonės lyderių ir gerbiamų dirbtinio intelekto tyrinėtojų ir jis buvo plačiai nušviestas spaudoje.

Platesnė reakcija į pareiškimą buvo griežta. Oksfordo universiteto profesorė Sandra Wachter sakė, kad tai buvo tik reklaminis triukas. Kai kurie protingesni signatarai, pavyzdžiui, saugumo ekspertas Bruce'as Schneieris, greitai pareiškė pasirašiusiųjų atgailą. „Aš iš tikrųjų nemanau, kad AI kelia pavojų žmonių išnykimui“, - sakė Schneier.

Kiti manė, kad šis pareiškimas iš tikrųjų buvo lėšų rinkimo triukas. Duke universiteto sociologijos profesorė Kieren Healy paskelbė fiktyvią perfrazę: „Mano draugai ir aš ketiname reikalauti absoliučios sunkvežimio dotacijų pinigų, kad sumažintume tiesiogines rūšių lygmens egzistencines grėsmes, susijusias su šiuo dalyku, kurį, kaip teigiame, keliame.

Marietje Schaake, buvusi ES parlamento narė, dabar dirbanti Stanfordo universiteto Kibernetinės politikos centre, teigė, kad teiginio potekstė buvo ta, kad politikos formuotojai turėtų susidoroti su egzistencine rizika, o verslo vadovai nustato tikrąsias dirbtinio intelekto naudojimo taisykles. Nors dirbtinis intelektas gali būti naujas, sakė ji, šis numanomas argumentas, kad AI pramonės lyderiai „geriausiai gali reguliuoti pačias technologijas, kurias jie gamina“, yra ne kas kita, kaip pokalbių temos, atimtos iš ankstesnio jų naudojimo socialinėje žiniasklaidoje ir ginčų dėl kriptovaliutų.

Mano nuomone, apokaliptiniai įspėjimai, kad AI sieks sąmoningos ir nepriklausomos agentūros, atitraukia dėmesį nuo tikrų dirbtinio intelekto iššūkių, dėl kurių reguliavimo institucijos turi sustiprinti galiojančių įstatymų vykdymą, o politikos formuotojai – apsvarstyti pataisymus siekiant pašalinti teisines spragas.

Kaip sakė Federalinės prekybos komisijos pirmininkė Lina Khan, sukčiavimas naudojant AI yra neteisėtas. Agentūra jau perspėjo apie AI naudojimą apsimetinėti žmonėmis vaizdo ir telefono sukčiavimui. Kinija pastebėjo tą patį ir imasi griežtų veiksmų prieš dirbtinio intelekto skatinamus sukčiavimus. Neaišku, ar čia yra naujų teisinių problemų, tačiau norint suvaldyti šį artėjantį sukčiavimo dirbtinio intelekto potvynį, prireiks didžiulių vykdymo pastangų. Visiškai finansuoti agentūros 590 mln. USD biudžeto prašymą būtų daug produktyvesnis viešųjų pinigų panaudojimas nei AI egzistencinės rizikos tyrimas.

Visi yra tinkamai susirūpinę dėl dirbtinio intelekto sukurtos dezinformacijos, pavyzdžiui, neseniai paskelbto netikro Putino pranešimo, kad Rusija buvo užpulta. Ženklinimas gali labai padėti sumažinti šią riziką. Respublikonų nacionalinio komiteto reklamoje, kuri buvo paskelbta po to, kai Bidenas paskelbė apie savo kandidatūrą į prezidentus, buvo naudojamas dirbtinis intelektas, siekiant sukurti vaizdus apie tai, kas gali nutikti naujajam Bideno pirmininkavimo laikotarpiui, tačiau ji buvo taip pažymėta ir tai sumažino dezinformacijos riziką.

Dirbtinio intelekto skaidrumas yra menkas politikos vaisius, kurio turėtų griebtis politikos formuotojai, kaip atrodo, kad kai kurie tai daro. Šią savaitę Europos Komisijos viceprezidentė Vera Jourova paragino technologijų įmones pažymėti dirbtinio intelekto sukurtą turinį. JAV atstovas Ritchie Torresas (DN.Y.) netrukus pristatys teisės aktus, pagal kuriuos tokios paslaugos kaip „ChatGPT“ turėtų atskleisti, kad jos produkcija buvo „sukurta dirbtinio intelekto“.

Autorių teisės ir dirbtinis intelektas yra dar vienas iššūkis. Reikia šiek tiek aiškumo dėl kompensacijos autorių teisių savininkams už jų medžiagos naudojimą dirbtinio intelekto mokymuose. Vasario mėnesį „Getty“ padavė į teismą „Stability AI“ JAV, teigdama, kad dirbtinio intelekto įmonė nukopijavo 12 milijonų „Getty“ vaizdų neturėdama leidimo apmokyti „Stable Diffusion AI“ vaizdų generavimo programinės įrangos. Praėjusią savaitę ji paprašė Londono teismo blokuoti „Stability AI“ JK, nes AI įmonė pažeidė „Getty“ autorių teises, mokydama savo sistemą.

Šios bylos bus nagrinėjamos teisme. Tačiau yra tinkamas argumentas, kad autorių teisių turėtojams iš viso nereikia kompensuoti nei dėl sąžiningo naudojimo, nei dėl to, kad dirbtinio intelekto mokymams išgaunami tik neapsaugoti faktai ir idėjos. Be to, 2019 m. Europos Sąjungos direktyvoje dėl autorių teisių bendrojoje skaitmeninėje rinkoje yra išimtis, leidžianti išgauti internetinės autorių teisių saugomos medžiagos tekstą ir duomenis, nebent autorių teisių savininkas atsisako naudodamas technologines apsaugos priemones, pvz., antraščių blokavimą, kad būtų išvengta nuskaitymo. Tai gali apimti AI mokymo duomenis.

Pagal dabartinį Europos Sąjungos Dirbtinio intelekto įstatymo projektą reikalaujama atskleisti autorių teisių saugomus kūrinius, naudojamus mokant dirbtinio intelekto sistemas. Panašu, kad taip siekiama suteikti autorių teisių savininkams galimybę pasinaudoti savo teise atsisakyti teksto ir duomenų gavybos dirbtinio intelekto mokymuose. Bet tai taip pat gali būti žingsnis link kažko toliau. Dėl to gali būti nustatytas privalomas licencijų režimas, kuris neleistų autorių teisių turėtojams blokuoti dirbtinio intelekto mokymus, tačiau jiems būtų suteikta tam tikra kompensacija už naudojimąsi intelektine nuosavybe. Norint išspręsti šias autorių teisių problemas, politikos formuotojai turės sutelkti dėmesį.

ES AI įstatyme taip pat reikalaujama, kad rizikingos AI sistemos būtų sertifikuotos, kad būtų užtikrinta, jog rizika buvo tinkamai įvertinta ir priimtos pagrįstos mažinimo priemonės. Dabartiniame projekte pagrindiniai modeliai, tokie kaip „ChatGPT“, laikomi rizikingomis sistemomis, kurioms reikia sertifikavimo. Tai galima našta, dėl kurios „Open AI“ vadovas Samas Altmanas pasakė, kad jis pašalins „ChatGPT“ iš Europos, jei negalės jos laikytis. Nuo tada jis atsisakė grasinimų, sakydamas, kad neketina išvykti.

Tačiau jis turi prasmę. Politikos formuotojai, ieškantys konkrečios problemos, turėtų savęs paklausti, kaip bendros paskirties AI sistema, tokia kaip „ChatGPT“, gali būti sertifikuota kaip „saugi“, kai daugelis pavojų išryškės tik tada, kai sistema bus taikoma praktiškai.

Tai tik keletas pagrindinių dirbtinio intelekto problemų, kurios turėtų rūpėti politikos formuotojams. Kiti apima vis pažangesnių AI sistemų poveikį užimtumui, privatumo iššūkius, kai mokymo duomenys apima asmeninę informaciją, koncentracijos tendenciją, kurią sukelia milžiniškos dirbtinio intelekto programinės įrangos sąnaudos ir tinklo poveikis, 230 skirsnio atsakomybės taisyklių taikymas ir įstatymai, prieštaraujantys šališkumui skolinimo, būsto ir užimtumo srityse, kai dirbtinis intelektas lemia tinkamumo vertinimą.

Politikos formuotojai neturi ir neturėtų klaidžioti į miglotas sferas, kur autonominės AI programos nevaldomos ir kelia grėsmę žmonių išlikimui. Jie turi daug darbo, kad susidorotų su daugybe AI iššūkių realiame pasaulyje.

Šaltinis: https://www.forbes.com/sites/washingtonbytes/2023/06/06/policymakers-need-to-deal-with-real-ai-challenges/