Latvijas Zinātņu akadēmija uzsver, ka jūsu monogrāfija ir unikāls pētījums Latvijas tiesību zinātnē, kas veltīts mākslīgā intelekta regulējumam un cilvēktiesībām. Kādi, jūsuprāt, ir svarīgākie problēmjautājumi?
Mākslīgais intelekts (MI) un tā regulējums ir aktuāla tēma visā pasaulē un Eiropā. Ir nepieciešams izstrādāt un ieviest MI regulējumu, kas nodrošinātu uzticamu un uz cilvēku vērstu MI sistēmu attīstību, veicinātu MI sniegtos ieguvumus un vienlaikus novērstu to radītos riskus un negatīvo ietekmi uz indivīdiem un sabiedrību.
MI tehnoloģiju attīstība notiek ļoti strauji. Tās maina veidu, kā cilvēki izmanto un mijiedarbojas ar tehnoloģijām, sekmē ekonomisko izaugsmi un sniedz lielu labumu sabiedrībai, tostarp tādās jomās kā veselības aprūpe, izglītība, nodarbinātība, transports, tiesībaizsardzība.
Tomēr MI sistēmas – ģeneratīvais MI, kas var radīt jaunu saturu, valkājamās ierīces, kas analizē mūsu veselību un ieradumus, MI balstītas lēmumu pieņemšanas sistēmas, kurām var būt ievērojama ietekme uz cilvēkiem, – rada arī pamatotas bažas.
MI sistēmu izstrāde un izmantošana var radīt būtiskus riskus un apdraudējumu, it īpaši cilvēktiesībām, demokrātijai un tiesiskumam.
Man ir pagodinājums saņemt Latvijas Zinātņu akadēmijas augsto novērtējumu. Ceru, ka grāmata aktualizēs jautājumus par mākslīgā intelekta regulējumu, uzticama un cilvēktiesībām atbilstoša MI attīstību.
Kāds šobrīd ir MI regulējums pasaulē un Eiropā? Uz kuru pusi virzās MI ieviešana?
Ne tikai MI attīstās zibenīgā ātrumā, radot arvien jaunas iespējas un izaicinājumus, bet arī starptautiskajā un Eiropas līmenī notiek intensīvs darbs pie MI regulējuma izstrādes.
Šī gada martā Eiropas Parlaments pieņēma Mākslīgā intelekta aktu, kas ir pirmais visaptverošais MI tiesiskais regulējums pasaulē. Tas noteiks saskaņotus noteikumus MI sistēmu izmantošanai Eiropas Savienībā (ES), noteiktus MI prakses aizliegumus, prasības augsta riska MI sistēmām, pārredzamības noteikumus dažām MI sistēmām un saskaņotus noteikumus par vispārīga lietojuma MI modeļu laišanu tirgū.
Tas paredz arī uzraudzības un izpildes nodrošināšanas noteikumus, kā arī pasākumus inovāciju atbalstam, piemēram, “regulatīvās smilškastes”.
Gaidāms, ka MI akts stāsies spēkā jūnijā un būs piemērojams visās ES dalībvalstīs, tai skaitā Latvijā, pēc diviem gadiem. Savukārt atsevišķi noteikumi, piemēram, MI prakses aizliegumi, tiks piemēroti sešus mēnešus pēc jaunā regulējuma stāšanās spēkā dienas.
Viena gada laikā valstīm jānozīmē atbildīgā uzraudzības iestāde.
Līdzās ES regulējumam Eiropas Padome patlaban izstrādā pirmo starptautisko līgumu par MI. Šī gada martā Eiropas Padomes MI komiteja pabeidza darbu pie Konvencijas par MI, cilvēktiesībām, demokrātiju un tiesiskumu projekta, kas tiks nodots Ministru komitejai pieņemšanai 2024. gada maijā.
Ne tikai Eiropas, bet arī starptautiskajā līmenī ir izstrādāti MI ētikas principi un regulējums. Ekonomiskās sadarbības un attīstības organizācija (OECD) jau 2019. gadā pieņēma Rekomendāciju par MI, kas tika atjaunota šī gada maijā.
Turpretī UNESCO 2021. gadā pieņēma Rekomendāciju par mākslīgā intelekta ētiku. Apvienoto Nāciju Organizācijas Ģenerālā asambleja 2024. gada martā pieņēma pirmo globālo rezolūciju par MI, kas mudina valstis aizsargāt cilvēktiesības, personas datus un uzraudzīt MI riskus. Pašreiz vairs netiek apšaubīts, ka ir nepieciešams regulēt MI tehnoloģijas.
Kāds ir Mākslīgā intelekta akta mērķis?
Ar Mākslīgā intelekta aktu tiek mēģināts sasniegt divus atšķirīgus mērķus, vienlaikus uzsverot to savstarpējo saderību. Tā mērķis ir veicināt uz cilvēku vērsta un uzticama MI ieviešanu un atbalstīt inovācijas, kā arī nodrošināt augstu veselības, drošības, pamattiesību, demokrātijas, tiesiskuma un vides aizsardzības līmeni pret MI sistēmu kaitīgo ietekmi.
Tādējādi MI aktā atzīts, ka mākslīgā intelekta izstrādei un ieviešanai var būt nepieciešami kompromisi starp normatīvo prasību noteikšanu, MI attīstību un konkurētspējas veicināšanu.
Valstis pasaulē var izvēlēties iet atšķirīgus MI ieviešanas ceļus. Vienās MI sistēmas var tikt stingri regulētas, nosakot skaidrus ierobežojumus un sarkanās līnijas tādu tehnoloģiju izmantošanai, kas pārkāpj vai var būtiski aizskart cilvēktiesības, tiesiskumu un demokrātiju. Savukārt otrās var būt iespējama situācija, ka cilvēku sejas attēlus fiksē sejas atpazīšanas tehnoloģijas, kas tos salīdzina ar plašām datubāzēm un analizē, vai neesam izdarījuši vai neplānojam izdarīt noziedzīgu nodarījumu vai likumpārkāpumu.
Viens no galvenajiem secinājumiem, pa kādu ceļu būtu jāiet MI ieviešanā, ir atspoguļots grāmatas nosaukumā, proti, MI regulējums jābalsta uz spēkā esošo cilvēktiesību regulējumu.
Arī jaunā ES Mākslīgā intelekta akta mērķis ir aizsargāt ES Pamattiesību hartā noteiktās pamattiesības.
Pamattiesību izšķirošo lomu MI akta piemērošanā apstiprina MI sistēmu klasifikācijas kritēriji. Mākslīgā intelekta akts aizliedz nepieņemamu MI praksi, kas ir pretrunā pamattiesībām un ES vērtībām – cilvēka cieņai, brīvībai, vienlīdzībai, demokrātijai un tiesiskumam. MI sistēmu radītā negatīvā ietekme uz pamattiesībām ir svarīgs faktors, klasificējot MI sistēmas kā augsta riska sistēmas, paredzot tām daudz jaunu prasību.
Tomēr priekšā ir ilgs un sarežģīts ceļš, lai iedzīvinātu MI akta noteikumus praksē. Liela nozīme būs tam, cik efektīvi tiks uzraudzīta MI sistēmu atbilstība jaunajām prasībām gan Eiropas, gan valsts līmenī.
Jūsu grāmatā analizētas Eiropas datu aizsardzības prasības, kas piemērojamas MI novērošanas tehnoloģijām, īpaši sejas atpazīšanas tehnoloģijām. Kā MI tehnoloģiju izmantošana “iet kopā” ar datu aizsardzības prasībām Eiropā?
MI sistēmas nedarbojas “tiesiskā vakuumā”, jo tās jau šobrīd regulē spēkā esošie tiesību akti, tostarp cilvēktiesību un datu aizsardzības regulējums.
Eiropas datu aizsardzības iestādes ir pieņēmušas vairākus lēmumus, atzīstot, ka novērošanas tehnoloģiju izmantošana pārkāpj datu aizsardzības prasības.
Piemēram, Zviedrijas datu aizsardzības uzraugs pieņēma lēmumu, kurā atzina, ka sejas atpazīšanas tehnoloģiju izmantošana, lai uzraudzītu skolēnu stundu apmeklējumu, pārkāpj datu aizsardzības noteikumus. Turpretī Nīderlandes datu aizsardzības iestāde atzinusi, ka sejas atpazīšanu aizliegts izmantot lielveikalos.
Mākslīgā intelekta aktā īpaši paredzēts, ka tā mērķis nav ietekmēt spēkā esošos ES tiesību aktus, sevišķi attiecībā uz datu un patērētāju aizsardzību, pamattiesībām, bet tos papildināt. Vienlaikus minēto aktu prasības savstarpēji mijiedarbojas.
Piemēram, Mākslīgā intelekta akts paredz, ka ietekmes uz pamattiesībām novērtējums būs jāveic tikai tiem aspektiem, uz kuriem neattiecas ietekmes uz datu aizsardzību novērtējums, kas noteikts Vispārīgajā datu aizsardzības regulā.
Uzņēmumiem un iestādēm būtu noderīgas vadlīnijas, kas izskaidrotu MI akta jaunās prasības un to mijiedarbību ar datu aizsardzības un citu patlaban spēkā esošo regulējumu.
Grāmatas kopsavilkumā rakstāt: “Starptautiskās un Eiropas organizācijas plaši diskutē un meklē piemērotākos veidus, kā regulēt MI, un strauji izstrādā tiesisko regulējumu. Ir svarīgi nepalaist garām šo izšķirošo brīdi, kad starptautiskā un Eiropas līmenī ir iespējams noteikt skaidras sarkanās līnijas tāda mākslīgā intelekta izmantošanai, kas pārkāpj cilvēktiesības.” Kādas, jūsuprāt, sarkanās līnijas būtu jānosaka, lai MI izmantošana nepārkāptu cilvēktiesības?
MI regulējumā jānosaka skaidras sarkanās līnijas jeb aizliegumi tādai MI sistēmu izmantošanai, kas ir pretrunā cilvēktiesībām. Piemēram, UNESCO Rekomendācija par mākslīgā intelekta ētiku noteic, ka MI sistēmas nedrīkst izmantot sociālās vērtēšanas un masveida novērošanas nolūkos.
ES Mākslīgā intelekta akts paredz daudzus aizliegumus tādai MI sistēmu izmantošanas praksei, kas ir pretrunā pamattiesībām un Eiropas vērtībām. Jaunais regulējums aizliedz izmantot, piemēram, MI sistēmas, kuras manipulē ar cilvēku uzvedību un ļaunprātīgi izmanto neaizsargātus lietotājus, biometriskās kategorizācijas sistēmas, emociju uztveršanas sistēmas, tiesa, tikai darba vietās un izglītības iestādēs.
Tas aizliedz arī tiesībaizsardzības iestādēm izmantot “reāllaika” attālinātās biometriskās identifikācijas sistēmas.
Taču minēto aizliegumu apjoms atsevišķos gadījumos ir ierobežots, kā arī paredzēti vairāki izņēmumi.
Kādi ir jūsu ieteikumi MI tiesiskā regulējuma un politikas tālākai attīstībai, lai nodrošinātu MI tehnoloģiju atbildīgu un uzticamu izmantošanu un novērstu to radīto apdraudējumu?
Grāmatas pēdējā nodaļa ir veltīta politikas rekomendācijām jeb ieteikumiem, kā tālāk attīstīt MI regulējumu un kādi mehānismi un aizsardzības garantijas jāievieš praksē, lai nodrošinātu atbildīgu un uzticamu MI tehnoloģiju izmantošanu, kas novērstu to radītos riskus.
Pētījumā ir pamatots, ka ir nepieciešams MI tiesiskais regulējums, kas balstīts cilvēktiesībās.
Esošais tiesiskais regulējums jau šobrīd regulē MI tehnoloģijas, tomēr tas nav pietiekams, lai novērstu visus MI sistēmu radītos riskus.
Grāmatā analizēts, kā pašreizējais datu aizsardzības regulējums ir piemērojams attiecībā uz MI sistēmām, vēršot uzmanību vairākiem tiesiskiem izaicinājumiem. Kā viens no būtiskākajiem mehānismiem minēts ietekmes uz pamattiesībām novērtējums, kas ir paredzēts Mākslīgā intelekta aktā.
Efektīvam regulējumam nepieciešama neatkarīga uzraudzība. Svarīgi, lai arī Latvijā tiktu izveidots efektīvs uzraudzības mehānisms Mākslīgā intelekta aktā noteikto prasību izpildei, piešķirot atbilstošus resursus. Tāpat vajadzīgi iedarbīgi tiesiskās aizsardzības līdzekļi gadījumā, ja personu tiesības tiek pārkāptas. Attiecīgo tehnoloģiju izmantošanai jābūt pārskatāmai, savukārt sabiedrībai – par tām informētai un izglītotai.
Ceru, ka grāmata būs noderīga gan politikas veidotājiem un tiesību piemērotājiem, gan iestādēm un uzņēmumiem, kas izstrādā un izmanto MI sistēmas, un palīdzēs izpildīt jaunās prasības, kas noteiktas MI aktā.