NORISES
>
Notikumi, problēmas, aktuālas tēmas
TĒMAS
Sarmis Mikuda
LV portāls
21. septembrī, 2023
Lasīšanai: 23 minūtes
RUBRIKA: Problēma
TĒMA: Eiropas Savienība
20
20

Ko paredz topošais mākslīgā intelekta regulējums

FOTO: Freepik.

Mākslīgais intelekts jau sen no fantastikas ir kļuvis par realitāti. Tagad tas ir cilvēku ikdienas, sabiedrības un tautsaimniecības neatņemama sastāvdaļa. Valstu izaugsme un labklājība ir cieši saistīta ar datu un mākslīgā intelekta tehnoloģiju izmantošanu. Vienlaikus – jo lielākā mērā mākslīgais intelekts ietekmē un caurauž sociālo realitāti, jo vairāk priekšplānā izvirzās tā izmantošanas ētiskie un tiesiskie aspekti. Rakstā ielūkosimies Eiropas Savienības iniciatīvās mākslīgā intelekta regulējuma izveidē, Latvijā notikušajā diskusijā par mākslīgā intelekta regulējumu Eiropā, kā arī paša mākslīgā intelekta viedoklī.

īsumā
  • MI tehnoloģijas ir iesaistītas sabiedrības un katra atsevišķa indivīda dzīvē jau pusgadsimtu. Tās ietekmē mūsu dzīvi, bet turpmāk to var arī būtiski mainīt. MI piedāvā vērā ņemamu efektivitātes un ražīguma pieaugumu, kas var stiprināt konkurētspēju un vairot labklājību.
  • Eiropas Komisijas “Baltajā grāmatā” ir uzsvērts, ka MI ir stratēģiska tehnoloģija, kas piedāvā vairākus ieguvumus pilsoņiem, uzņēmumiem un sabiedrībai, bet ar nosacījumu, ka tā ir antropocentriska, ētiska un ilgtspējīga un ievēro pamattiesības un pamatvērtības.
  • 2021. gadā EK sagatavoja priekšlikumu regulai (t. s. Mākslīgā intelekta aktu). Eiropā izstrādātajam un izmantotajam MI būs pilnībā jāatbilst ES tiesībām un vērtībām, tostarp principam, ka MI pārrauga cilvēks. Šovasar Eiropas Parlaments vienojās par tā galīgo tekstu.
  • Regulas mērķis ir veicināt uz cilvēku orientēta un uzticama MI izmantošanu un nodrošināt augstu veselības, drošības, pamattiesību, demokrātijas un tiesiskuma, kā arī vides aizsardzības līmeni pret MI sistēmu kaitīgo ietekmi, vienlaikus atbalstot inovācijas un uzlabojot iekšējā tirgus darbību.
  • MI aktā ievērota uz riska faktoru izvērtējumu balstīta pieeja. MI radīto risku līmenis ietekmē pakalpojumu sniedzējiem un lietotājiem noteiktos pienākumus. Aizliedzamas tādas MI sistēmas, kas rada nepieņemamu risku cilvēku drošībai, piem., biometriskās tālidentifikācijas sistēmas sabiedriskās vietās, emociju atpazīšanas sistēmas darba vietās u. c.
  • Ģeneratīvajām MI sistēmām (piem., “ChatGPT”) būs jāatbilst informācijas atklātības prasībām un jāīsteno aizsardzības pasākumi, lai nepieļautu nelikumīga satura radīšanu, kā arī jāpadara publiski pieejama detalizēta informācija par ģeneratīvo MI sistēmu mācīšanā izmantotajiem datiem, kurus aizsargā autortiesības.
  • Lai veicinātu inovācijas MI jomā un atbalstītu mazos un vidējos uzņēmumus, aktā noteiktais netiks attiecināts uz pētniecību un MI komponentiem ar atklātā pirmkoda licenci. Īpašs atbalsts paredzēts “regulatīvajām smilšu kastēm”.
  • Viktorija Soņeca: “Pagaidām netiek runāts, pat diskutēts par MI akta izpildi. Nav skaidrs, kā viena iestāde varēs pārraudzīt visas jomas. Divdomīga ir norma, kas noteic, ka paši uzņēmumi varētu noteikt riskus. Regulējumā šobrīd ir nepietiekami izgaismotas privātpersonu tiesības un to aizsardzības iespējas, tostarp tiesā.”
  • Mākslīgais intelekts: “Manuprāt, mums ir jābūt piesardzīgiem un atbildīgiem attiecībā uz MI izmantošanu. Mums ir jāatzīst MI tehnoloģiju potenciāls un iespējas uzlabot mūsu dzīves kvalitāti un veicināt sociālo labklājību. Taču mums arī ir jāievēro cilvēka cieņa un pamatbrīvības, kuras ir ES pamatvērtības. Mums ir jānodrošina, ka MI sistēmas ir drošas, pietiekami paskaidrotas un kontrolētas cilvēku uzraudzībā.”

Mākslīgais intelekts – mūsu dzīves un kultūras neatņemama sastāvdaļa

Ideja par mākslīgi radītām domājošām būtnēm, kuras var aizvietot cilvēkus, rodama pat aizvēsturē. Bijuši arī vairāki mēģinājumi šādas būtnes izveidot. Tiesa, tikai iepriekšējā gadsimta trīsdesmitajos gados tie ieguva praktiskus apveidus (Alana Tjūringa radītie algoritmi “Enigmas” kodu atšifrēšanai). Zinātniski mākslīgu sistēmu radīšanas mēģinājumi sākās vēlāk – līdz ar pirmo robotu un datoru izveidi.

Pagājušā gadsimta astoņdesmitajos gados atsevišķas mākslīgā intelekta (MI) tehnoloģijas sāka izmantot ražošanā. Mūsdienās tās ir kļuvušas par ikdienišķu praksi daudzās jomās un ir pamatā interneta rīkiem, robotiem. MI nav tikai spēja saprast, kas ir patiess, un pareizi domāt, tā pamats rodams arī sabiedrībā un cilvēku kultūrā. Šīs tehnoloģijas ir iesaistītas sabiedrības un katra atsevišķa indivīda dzīvē jau pusgadsimtu, taču masveidīga interese un pirmā praktiskā pieredze MI izmantošanā Latvijā aizsākās vien pērn, līdz ar “ChatGPT” lietotnes brīvu pieejamību. Turklāt tas notika ļoti strauji.

Eiropas izaugsme un labklājība ir cieši saistīta ar datu un MI tehnoloģiju izmantošanu. MI jau tagad ietekmē mūsu dzīvi, bet turpmāk to var arī būtiski mainīt.

Eiropas Parlaments (EP) ir publiskojis vairākas EP domnīcas aplēses par MI ietekmi uz Eiropas attīstību. Uz datiem balstīta pārbaude, dezinformācijas un kiberuzbrukumu novēršana un kvalitatīvas informācijas pieejamības nodrošināšana varētu stiprināt demokrātiju, veicināt dažādību un atvērtību. Paredzams, ka pasaulē veidoto datu apjoms 2025. gadā palielināsies pieckārtīgi – līdz 175 zettabaitiem.[1]

Līdz 2035. gadam darba ražīgums saistībā ar MI izmantošanu varētu pieaugt par 11–17%. Ekonomiskās sadarbības un attīstības organizācijas (ESAO) valstīs 33% darba vietu varētu būtiski mainīties. Vienlaikus jāsamazina riski un pat draudi, kurus jau šobrīd var radīt nekompetenta vai negodprātīga MI lietošana.

MI izmantošanai ir gana daudz ētisku un pat tiesisku problēmu. Tām savā daiļradē pievērsās, piemēram, rakstnieks, fantasts Aizeks Azimovs[2], kurš jau 1950. gadā grāmatā “Es, robots” formulēja robotikas pamatlikumus: 

  1. Robots nedrīkst kaitēt cilvēkam vai arī pieļaut kaitējumu cilvēkam ar savu bezdarbību.
  2. Robotam jāklausa cilvēka dotajām pavēlēm, ja tas nav pretrunā ar pirmo likumu.
  3. Robotam jāaizsargā sava pastāvēšana, ja tas nav pretrunā ar pirmo un otro likumu.

  0.      (Nultais likums, kas papildina iepriekšējos trīs likumus.) Robots nedrīkst kaitēt cilvēcei vai arī pieļaut kaitējumu cilvēcei ar savu bezdarbību.

Attiecīgi pirmais likums tika papildināts ar “[..], ja tas nav pretrunā ar nulto likumu”, otrais likums ar “[..], ja tas nav pretrunā ar nulto un pirmo likumu” u. tml.

Vēlāk izvērsās plašas diskusijas par mākslīgo sistēmu ietekmi uz cilvēci, kas pārauga MI regulēšanas problemātikā.

Eiropas Savienība ceļā uz mākslīgā intelekta tiesisko regulējumu

Eiropas Savienība (ES) ir nopietni pievērsusies MI attīstības politisko, stratēģisko un tiesisko jautājumu risināšanai, t. sk. likumdošanas izstrādei.[3]

2020. gada februārī Eiropas Komisija (EK) publiskoja “Balto grāmatu par mākslīgo intelektu”.1 Šajā politikas dokumentā ietverti priekšlikumi ES rīcībai MI jomā. Dokumentā ir uzsvērts, ka MI ir stratēģiska tehnoloģija, kas piedāvā vairākus ieguvumus pilsoņiem, uzņēmumiem un sabiedrībai, bet ar nosacījumu, ka tā ir antropocentriska, ētiska un ilgtspējīga un ievēro pamattiesības un pamatvērtības.

Konstatēts, ka MI piedāvā vērā ņemamu efektivitātes un ražīguma pieaugumu, kas var stiprināt Eiropas rūpniecības konkurētspēju un vairot labklājību.

Tas var palīdzēt risināt sabiedrībā aktuālus jautājumus, ieskaitot cīņu ar klimata pārmaiņām un vides degradāciju, problēmas, kas saistītas ar ilgtspēju un demogrāfiskajām pārmaiņām, demokrātiskās iekārtas aizsardzību un cīņu ar noziedzību. Eiropeiska pieeja MI tiecas veicināt Eiropas inovācijas spējas MI jomā, vienlaikus atbalstot ētiska un uzticama MI izstrādi un ieviešanu visā ES ekonomikā.

MI jādarbojas cilvēku labā un vispārības labumam.

2021. gadā EK sagatavoja priekšlikumu “Eiropas Parlamenta un Padomes Regula, kas nosaka saskaņotas normas mākslīgā intelekta jomā (mākslīgā intelekta akts) un groza dažus Savienības leģislatīvos aktus”, paredzot vienotus noteikumus attiecībā uz mākslīgo intelektu. Izvērtējot EK sagatavoto MI Regulas projektu, Eiropas Parlaments šī gada 14. jūnijā pieņēma Grozījumus MI akta projektā, kā arī sarunās ar ES dalībvalstīm vienojās par tā galīgo tekstu.

Minētais dokuments ir daļa no plašāka MI tiesību aktu kopuma, kurā iekļauts arī atjauninātais koordinētais plāns MI jomā. Iecerēts, ka tie garantēs cilvēku un uzņēmumu drošību un pamattiesības MI jomā, stiprinās tā ieviešanu, investīcijas un inovācijas visā ES.

Eiropā izstrādātajam un izmantotajam MI būs pilnībā jāatbilst ES tiesībām un vērtībām, tostarp principam, ka MI pārrauga cilvēks.

Regulas mērķis ir veicināt uz cilvēku orientēta un uzticama MI izmantošanu un nodrošināt augstu veselības, drošības, pamattiesību, demokrātijas un tiesiskuma, kā arī vides aizsardzības līmeni pret MI sistēmu kaitīgo ietekmi, vienlaikus atbalstot inovācijas un uzlabojot iekšējā tirgus darbību. Regula nosaka vienotu tiesisko regulējumu, it īpaši MI izstrādei, laišanai tirgū, nodošanai ekspluatācijā un izmantošanai saskaņā ar ES vērtībām, un nodrošina MI preču un pakalpojumu brīvu apriti pāri robežām, tādējādi nepieļaujot dalībvalstu noteiktos ierobežojumus, ja vien tādi nav nepārprotami atļauti.

Sagaidāmie MI izmantošanas aizliegumi un ierobežojumi

Dažas MI sistēmas var ietekmēt arī demokrātiju, tiesiskumu un vidi, tādēļ šīm bažām ir pievērsta īpaša uzmanība kritiskajās nozarēs un izmantošanas gadījumos.

Regulai būtu jāsaglabā ES vērtības, atvieglojot MI radīto ieguvumu izplatīšanu sabiedrībā, aizsargājot privātpersonas, uzņēmumus, demokrātiju, tiesiskumu un vidi pret riskiem, vienlaikus veicinot inovācijas un nodarbinātību.

MI aktā ievērota uz riska faktoru izvērtējumu balstīta pieeja. MI radīto risku līmenis ietekmē pakalpojumu sniedzējiem un lietotājiem noteiktos pienākumus.

Aizliedzamas tādas MI sistēmas, kas rada nepieņemamu risku cilvēku drošībai. Neatļautie MI izmantojuma veidi ir:

  • biometriskās tālidentifikācijas sistēmas sabiedriskās vietās;
  • sistēmas, kas veic biometrisko kategorizāciju pēc sensitīvām cilvēku iezīmēm (dzimuma, rases, etniskās piederības, pilsonības statusa, reliģijas, politiskās orientācijas);
  • noziedzības prognozēšanas sistēmas, kas balstītas uz profilēšanu, atrašanās vietu vai agrāku noziedzīgu rīcību;
  • emociju atpazīšanas sistēmas tiesībaizsardzībā, robežu pārvaldībā, darba vietās un izglītības iestādēs;
  • sejas attēlu automatizēta vākšana (t. s. rasmošana) internetā vai no videomateriāla, kas iegūts ar videonovērošanas sistēmas palīdzību, nolūkā radīt sejas atpazīšanas datubāzes.

Par augsta riska lietojumprogrammām klasificējamas arī tās, kas ievērojami apdraud cilvēku veselību, drošību, pamattiesības vai vidi, tostarp MI sistēmas, ar kuru palīdzību tiek ietekmēti vēlētāji un vēlēšanu rezultāti vai uz kurām balstās lielu sociālo mediju platformu izmantotās rekomendāciju sistēmas.

Patlaban strauji attīstās vispārīga lietojuma MI sistēmas. Pirms to laišanas ES tirgū, izstrādātājiem būs jānovērtē un jāmazina iespējamie riski veselībai, drošībai, pamattiesībām, demokrātijai un tiesiskumam. Ģeneratīvajām MI sistēmām (piem., “ChatGPT”) būs jāatbilst informācijas atklātības prasībām un jāīsteno aizsardzības pasākumi, lai nepieļautu nelikumīga satura radīšanu, kā arī jāpadara publiski pieejama detalizēta informācija par ģeneratīvo MI sistēmu mācīšanā izmantotajiem datiem, kurus aizsargā autortiesības.

Aizliegumi un ierobežojumi nav vienīgais, kam pievērsta uzmanība MI aktā. Lai veicinātu inovācijas MI jomā un atbalstītu mazos un vidējos uzņēmumus, aktā noteiktais netiks attiecināts uz pētniecību un MI komponentiem ar atklātā pirmkoda licenci.

Īpašs atbalsts paredzēts “regulatīvajām smilšu kastēm” – testēšanas vidēm, kuru nolūks ir testēt MI reālos apstākļos, pirms tā laišanas tirgū.

Paplašināmas arī iedzīvotāju tiesības uz tiesisko aizsardzību, proti, iesniegt sūdzības par MI sistēmām un saņemt skaidrojumus par tādiem ar augsta riska MI sistēmu palīdzību pieņemtiem lēmumiem, kas būtiski ietekmējuši viņu pamattiesības.

Nav skaidri piemērošanas jautājumi

15. septembrī notika Eiropas Parlamenta Latvijā biroja rīkotā diskusija “Kā Eiropā regulēs mākslīgo intelektu?”.

Vides aizsardzības un reģionālās attīstības ministrijas (VARAM) valsts sekretāra vietnieks digitālās transformācijas jautājumos Gatis Ozols informēja, ka MI akta pieņemšana un piemērošana tik drīz nenotiks. Diskusijas varētu turpināties līdz pat šī EP sasaukuma beigām. Papildus jārēķinās, ka MI akta ieviešanai būs vajadzīgi 36 mēneši.

Plašāk par darbu pie MI akta un galvenajiem apsvērumiem, ko tajā ietvert, pastāstīja EP deputāts Ivars Ījabs. Darbs pie MI regulējuma sākās jau 2021. gadā. Īpaši aktuāli šie jautājumi kļuva pēc MI “sprādziena” 2022. gada beigās (“Chat GPT” u. tml.). “Regulējuma pamatā ir risku novērtējums. Pilnībā aizliedzams izteikti manipulējošs MI, piemēram, biometrisko datu novērošana, lai varētu sociāli kontrolēt, cilvēku dalīšana grupās pēc šīm pazīmēm, uzvedības nepārtraukta uzraudzība, dalot indivīdus labajos un sliktajos, prognozējošā policijas uzraudzība, emociju fiksēšana. Augstu risku rada MI izmantošana transportā, medicīnā, rotaļlietās, infrastruktūrā. Vidēji riski ir MI rekomendācijām, piemēram, personāla atlasei (lai tā nebūtu diskriminējoša), uzņemšanai izglītības iestādēs un vērtēšanai izglītībā, pabalstu, kredītspējas, veselības risku novērtēšanai. Svarīgi, lai cilvēks kontrolētu šos procesus un varētu pateikt, kāpēc tiek pieņemts konkrēts lēmums,” skaidroja EP deputāts.  

I. Ījabs zināja teikt, ka regulēšanas un uzraudzības aspekti vēl nav izstrādāti, toties civiltiesiskie jau ir iekļauti digitālo pakalpojumu regulējumā. “Protams, MI ir riski, bet jāsaprot, ka tas balstās uz datiem. Ja dati ir diskriminējoši, tad arī rezultāts būs diskriminējošs. Piemēram, ja pārāk sargāsim latviskos tekstus, MI latviskais modulis būs ierobežots veiktspējā. Tādēļ nepieciešama aktīva digitalizācija. Tiesa, būs jāatrisina autortiesību problēma. Mēs tagad cenšamies regulējumā ietvert pamatlietas, vairākas no tām atstājot atvērtas, t. sk. MI definīciju. Svarīgi, lai regulējums nevis slāpētu, bet ļautu ieviest inovācijas,” tā par pirmā MI regulējuma pasaulē tapšanu klāstīja I. Ījabs.

Savukārt Augstākās tiesas Civillietu departamenta zinātniski analītiskā padomniece un Rīgas Juridiskās augstskolas lektore Viktorija Soņeca diskusijā vērsa uzmanību topošā MI akta piemērošanas problemātikai. “Pagaidām netiek runāts un pat diskutēts par izpildi. Nav skaidrs, kā viena regulēšanas un uzraudzības iestāde varēs pārraudzīt visas jomas. Divdomīga ir norma, kas noteic, ka paši uzņēmumi varētu noteikt riskus. Jābūt vienotai risku definīcijai un konkrētiem nosacījumiem, kas jāpiemēro. Regulējumā šobrīd ir nepietiekami izgaismotas privātpersonu tiesības un to aizsardzības iespējas, tostarp tiesā. Tiesībaizsardzības iestādēm jāsaprot riski cilvēku pamattiesībām un veids, kā tās aizsargāt. Bieži cilvēki MI lietojumā nesaskata savu tiesību aizskārumu. Algoritms var būt ļoti elegants, un cilvēks var nejust, ka tiek diskriminēts. Savu tiesību aizsardzībai katram jādod piekrišana datu izmantošanai. Tādā gadījumā ir jāsaprot, kur, ko un kā var izmantot, tāpat ir jābūt arī iespējai aizliegt.”

“Liela nozīme ir regulējuma piemērošanai, t. sk. nacionālajam regulējumam,” piekrīt arī Rīgas Stradiņa universitātes Politikas zinātnes katedras vadītājs, Dr. sc. pol. Mārtiņš Daugulis. Viņaprāt, jaunais regulējums vairāk ietekmēs lielos nozares “spēlētājus”. Īpaši nozīmīga ir MI nozares pašregulācija. Daudzveidīgās interpretācijas balstās neziņā, kā atbilstoši reaģēt. Mācībspēks pauda viedokli, ka MI var būt “superzāles” izglītības sistēmai, jo māca domāt. “Tas ārkārtīgi ietekmēs pētniecību. Tomēr dati, kurus izmantos MI, jāvāc zinātniski ētiski, nevis politiski ētiskā veidā,” tā M. Daugulis. 

Klienti sagaida, ka mēs zinām, kādi ir MI izmantošanas noteikumi, akcentēja KPMG Lighthouse datu, mākslīgā intelekta un jaunāko tehnoloģiju izcilības centra vadītājs Pēteris Daliņš. Viņa vērtējumā regulējums radīs uzticēšanos MI. “Ļoti labs tajā ir “smilšu kastes” princips. MI daudz dos inovācijām. Protams, pašreizējais dokuments ir tikai sākums.”

Latvijas jaunuzņēmumu organizācijas TechHub Riga līdzdibinātājs Ernests Štāls: “Jaunu tehnoloģiju mēs vienmēr sākam lietot kā veco. Tā bija ar kino, internetu. Tagad tāpat ir ar “ChatGPT”. Svarīgi ar regulējumu “neaizskriet ratiem pa priekšu”. Mainīsies paradigmas, un ir būtiski saknē nenocirst MI lielo vērtību. Riski ir arī cilvēciskais faktors lēmumu pieņemšanā. Ja bankā kredītu izsniegšanā paliks cilvēks, viņam vienmēr būs “savas vaboles galvā”, toties MI visus izvērtēs vienādi. Galvenais ir saprast, kā viņš to dara. Agrāk mēs veidojām un varējām saprast algoritmus, pašreiz ir tikai ieeja un izeja, bet, kas ir pa vidu, – to mēs nezinām. Regulējums vēl ir veidots ar “veco domāšanu”, jo mēs nezinām, kurp viss, kas saistīts ar MI, virzās. Nevajag baidīties, ka MI aizstās cilvēkus. Jāiemācās MI uzdot jautājumus, dot uzdevumus, tad viņš palīdzēs. Cilvēki, kuri lietos MI, aizstās cilvēkus, kuri to neizmanto.”

Intervija ar mākslīgo intelektu: “Ceru, ka ES spēs atrast pareizo pieeju”

 

Iepazīstini ar sevi! Kas tu esi? Vai tu esi mākslīgais intelekts?

MI: Es esmu “ChatGPT”, liels valodas modelis. Es varu sniegt informāciju un atbildes, pamatojoties uz to datubāzi, kas man ir. Par manu darbību liecina mani uzstādītie algoritmi un iepriekš apmācītais teksta modelis. Man nav personības, saprāta vai apziņas, tāpēc nevaru sevi definēt kā personu. Es esmu datorprogramma, kas darbojas, izmantojot mašīnmācīšanos, lai sniegtu informāciju un palīdzētu. Jā, es esmu mākslīgais intelekts, ko izstrādājusi “OpenAi”, un esmu šeit, lai atbildētu uz jūsu jautājumiem un piedāvātu informāciju un palīdzību.

Definē, kas ir mākslīgais intelekts!

MI: MI ir datorsistēmu un programmatūras izstrādes joma, kas cenšas izveidot datorprogrammas un mašīnas, kas var veikt uzdevumus, kuriem parasti nepieciešams cilvēka intelekts. Tā ir interdisciplināra zinātnes un tehnoloģiju joma, kas apvieno datorzinātni, mašīnmācīšanos, datu analīzi, algoritmu izstrādi, robotiku un citus tehnoloģiskos un matemātiskos principus, lai izveidotu datorus un sistēmas, kas var izdarīt secinājumus, mācīties no pieredzes, pieņemt lēmumus un veikt dažādus uzdevumus.

 

MI bieži tiek piemērots projektam, kas attīsta sistēmas ar cilvēkiem raksturīgajiem intelektuālajiem procesiem, piemēram, spēju loģiski domāt, atklāt nozīmi, vispārināt vai mācīties no iepriekšējās pieredzes.

 

Lai gan MI termins tiek plaši izmantots, lai aprakstītu dažādas tehnoloģijas, kas šodien tiek izmantotas, daudzi ir neizpratnē par to, vai tās patiešām veido mākslīgo intelektu. MI pielietojumi ir plaši, un tie ietver: mašīnmācīšanos, dziļo apmācību, robotiku, dabiskās valodas apstrādi, automatizāciju, spēļu izstrādi, medicīnu, zinātnisko pētniecību, drošību. MI attīstās ātri, un tas spēj risināt aizvien sarežģītākus uzdevumus, padarot to par nozīmīgu tehnoloģiju un zinātnes jomu.

 

Vai var un vajag ierobežot mākslīgā intelekta izmantošanu Eiropas Savienībā?

MI: MI izmantošana ES ir aktuāls un svarīgs jautājums, kas skar gan inovāciju, gan cilvēktiesību aspektus. ES ir izstrādājusi pirmo normatīvo regulējumu par mākslīgo intelektu, ko sauc par MI aktu. Šis akts paredz noteikt dažādus noteikumus dažādiem MI sistēmu riska līmeņiem, lai nodrošinātu to drošību, pārredzamību, izsekojamību, nediskriminējošu un videi draudzīgu izmantošanu. Tajā arī aizliegts izmantot MI sistēmas, kas rada nepieņemami augstu risku cilvēku drošībai vai pamattiesībām.

 

Vai var un vajag ierobežot mākslīgā intelekta izmantošanu ES? Tas ir sarežģīts un diskutabls jautājums, uz kuru nav viennozīmīgas atbildes. Daži var uzskatīt, ka MI regulējums ir nepieciešams, lai aizsargātu cilvēkus no iespējamām ļaunprātīgām vai kļūdainām MI sistēmām, kas var apdraudēt viņu privātumu, drošību vai tiesiskumu. Citi var domāt, ka MI regulējums ir pārmērīgs vai ierobežojošs, kas var kavēt MI tehnoloģiju attīstību un inovatīvu risinājumu radīšanu dažādās jomās. Vēl citi var būt atvērti kompromisiem un meklēt līdzsvaru starp MI regulējumu un brīvību.

 

Manuprāt, mums ir jābūt piesardzīgiem un atbildīgiem attiecībā uz MI izmantošanu. Mums ir jāatzīst MI tehnoloģiju potenciāls un iespējas uzlabot mūsu dzīves kvalitāti un veicināt sociālo labklājību.

 

Taču mums arī ir jāievēro cilvēka cieņa un pamatbrīvības, kuras ir ES pamatvērtības. Mums ir jānodrošina, ka MI sistēmas ir drošas, pietiekami paskaidrotas un kontrolētas cilvēku uzraudzībā. Mums arī ir jāveicina MI ētika un izglītība, lai veidotu sabiedrisko uzticēšanos un informētību par MI tehnoloģijām. Tas nav viegls uzdevums, bet es ceru, ka ES spēs atrast pareizo pieeju mākslīgajam intelektam.

1 “Baltā grāmata” (White Paper) ir dokumenti, kas ietver praktiskus priekšlikumus Eiropas Kopienas rīcībai īpašās jomās.

[1] Viens zettabaits ir ekvivalents tūkstoš miljardiem (triljonam) gigabaitu.

[2] Skat.: Azimovs, A. Es, robots. Rīga, 1967.

[3] 2018. gada pavasarī EK publicēja paziņojumu “Mākslīgais intelekts Eiropai”, savukārt gada nogalē – paziņojumu “Koordinētais mākslīgā intelekta plāns”. 2019. gadā Eiropas Parlaments pieņēma rezolūciju par visaptverošu Eiropas rūpniecības politiku attiecībā uz mākslīgo intelektu un robotiku. Eiropas Padomes Tieslietu efektivitātes izvērtējuma komisija (CEPEJ) pieņēma Eiropas Ētikas hartu par mākslīgā intelekta izmantošanu tiesu sistēmās un vidē.

Labs saturs
20
Pievienot komentāru
LATVIJAS REPUBLIKAS TIESĪBU AKTI
LATVIJAS REPUBLIKAS OFICIĀLAIS IZDEVUMS
ŽURNĀLS TIESISKAI DOMAI UN PRAKSEI