Regula, par kuru 2023. gada decembrī panākta vienošanās sarunās ar dalībvalstīm, ir apstiprināta, 523 deputātiem balsojot “par”, 46 — “pret” un 49 deputātiem atturoties.
Regulas uzdevums ir sargāt pamattiesības, demokrātiju, tiesiskumu un vides ilgtspēju no augsta riska MI sistēmām un līdztekus rosināt inovāciju, ļaujot Eiropai šajā jomā izvirzīties līderpozīcijās. Tiesību aktā ir noteikti konkrēti pienākumi, pamatojoties uz iespējamo risku un plašo ietekmi, kas raksturīga mākslīgajam intelektam.
Aizliegtie izmantošanas veidi
Jaunais regulējums aizliedz MI izmantošanas veidus, kuri apdraud cilvēku tiesības. Ir aizliegts, piemēram, pēc sensitīviem raksturlielumiem izmantot biometriskās kategorizācijas sistēmas un no interneta vai videonovērošanas sistēmu videomateriāliem automatizēti vākt sejas attēlus, lai veidotu sejas atpazīšanas datubāzes. MI sistēmas būs aizliegts izmantot tādiem mērķiem kā emociju atpazīšana darbavietās un skolās, lietotāju vērtēšana, kriminoloģiskā prognozēšana (ja tas tiek darīts, tikai balstoties uz konkrētas personas profilēšanu vai viņiem raksturīgo īpašību vērtēšanu). Būs arī aizliegtas MI sistēmas, kuras manipulē ar cilvēku uzvedību un ļaunprātīgi izmanto neaizsargātus lietotājus.
Izņēmumi likumsargiem
Principā arī likumsargiem būs aizliegts izmantot biometriskās identifikācijas sistēmas, ja vien tā nav kāda no stingri uzskaitītām un šauri definētām situācijām. Šādas sistēmas “reāllaikā” varēs izmantot tikai tad, ja ir īstenoti stingri aizsardzības pasākumi, proti, sistēmas tiek izmantotas noteiktu laiku noteiktā ģeogrāfiskā mērogā un pirms tam ir saņemta īpaša atļauja no tiesas vai no attiecīgas administratīvās iestādes. Tā tas var būt, piemēram, gadījumos, kad mērķtiecīgi tiek meklēta bezvēsts pazudusi persona vai ir jānovērš teroristu uzbrukums. Vēlākai biometriskai identifikācijai no attāluma paredzētu sistēmu izmantošana ir ļoti riskants gadījums, kam vajadzīga tiesas atļauja, kura attiecas uz konkrētu noziedzīgu nodarījumu.
Pienākumi attiecībā uz augsta riska MI sistēmām
Skaidri definēti pienākumi ir jāpilda arī attiecībā uz augsta riska MI sistēmām, jo tās var būtiski kaitēt veselībai, drošībai, pamattiesībām, videi, demokrātijai un tiesiskumam. Ļoti riskanti ir izmantot mākslīgo intelektu tādās jomās kā kritiski svarīga infrastruktūra, izglītība un arodmācības, nodarbinātība, privātā un publiskā sektora pamatpakalpojumi (piemēram, veselības aprūpe, banku darbība), kā arī dažās tiesībaizsardzības sistēmās, migrācijas un robežu pārvaldībai, tiesu un demokrātijas procesos (piemēram, lai ietekmētu vēlēšanas). Ja šādos gadījumos tiek izmantotas MI sistēmas, tām ir jāizvērtē un jāsamazina risks, jāsaglabā lietošanas procesu digitālie dati, tām jābūt pārredzamām un precīzām un tās ir jāizmanto cilvēka uzraudzībā. Cilvēkiem būs tiesības iesniegt sūdzības par MI sistēmām un saņemt paskaidrojumus par lēmumiem, kas pieņemti, izmantojot šādas augsta riska sistēmas, un skar viņu tiesības.
Pārredzamības prasības
Vispārīga lietojuma MI sistēmām un attiecīgajiem modeļiem, kas ir šo sistēmu pamatā (ģeneratīvais MI), ir jāatbilst konkrētām pārredzamības prasībām un jāpilda ES autortiesību akti šādu modeļu apmācības gadījumos. Attiecībā uz jaudīgākiem šādu sistēmu modeļiem, kas varētu radīt sistēmisku risku, nāksies pildīt vēl arī citas prasības, piemēram, modeļi būs jāvērtē, būs jāanalizē un jāmazina sistēmisks risks un jāziņo par incidentiem.
Turklāt ar atbilstošu marķējumu ir nepārprotami jānorāda mākslīgi radīti vai apstrādāti attēli un audio vai video saturs (tā dēvētie dziļviltojumi).
Pasākumi inovācijas un MVU atbalstam
Valsts līmenī būs jāveido MVU un jaunuzņēmumiem pieejamas “regulatīvās smilškastes” un jāveic testēšana reālos apstākļos, lai izstrādātu un apmācītu novatorisku mākslīgo intelektu, pirms tas tiek laists tirgū.
Otrdienas plenārsēdes debatēs Iekšējā tirgus komitejas ziņotājs Brando Benifei (S&D, Itālija) sacīja: “Mums beidzot ir pasaulē pirmais saistošais mākslīgā intelekta likums, kas samazinās riskus, radīs jaunas iespējas, apkaros diskrimināciju un nodrošinās pārredzamību. Pateicoties Parlamentam, Eiropā tiks aizliegtas nepieņemamas MI prakses un aizsargātas darba ņēmēju un pilsoņu tiesības. Tiks izveidots Mākslīgā intelekta birojs, lai palīdzētu uzņēmumiem sākt piemērot noteikumus vēl pirms to stāšanās spēkā. Mēs esam nodrošinājuši to, ka MI attīstības pašā centrā ir cilvēki un ES vērtības”.
Pilsoņu brīvību komitejas ziņotājs Dragošs Tudorače (Renew, Rumānija) teica: “ES ir panākusi kaut ko ļoti būtisku. Mēs esam saistījuši mākslīgā intelekta jēdzienu ar vērtībām, kas ir mūsu sabiedrību pamatos. Tomēr priekšā vēl ir daudz darba, kas pārsniedz šodien pieņemtā likuma robežas. MI mudinās pārdomāt vienošanās, kas ir mūsu demokrātiju, izglītības modeļu, darba tirgus, kā arī mūsu karadarbības pamatā. MI akts ir sākums jaunam, tehnoloģijās balstītam pārvaldības modelim. Tagad mums jākoncentrējas uz šī likuma ieviešanu praksē.”
Turpmākie soļi
Juristiem lingvistiem vēl ir jāpārbauda regulas galīgā teksta redakcija, un ir sagaidāms, ka līdz sasaukuma beigām šī regula beidzot tiks pieņemta (tā dēvētā kļūdu labojumu procedūra). Tiesību akts oficiāli vēl ir jāpieņem arī Padomei.
Regula stāsies spēkā 20 dienu laikā pēc tam, kad būs publicēta Oficiālajā Vēstnesī. Tā būs pilnībā piemērojama pēc 24 mēnešiem, skaitot no regulas spēkā stāšanās dienas. Tomēr jāpatur prātā, ka ir daži izņēmumi:
- aizliegums nodarboties ar neatļautu praksi stāsies spēkā sešu mēnešu laikā pēc regulas spēkā stāšanās dienas,
- noteikumi par rīcības kodeksiem — deviņu mēnešu laikā pēc regulas spēkā stāšanās dienas,
- noteikumi par vispārīga lietojuma mākslīgā intelekta sistēmām (arī pārvaldību) — 12 mēnešu laikā pēc regulas spēkā stāšanās dienas,
- pienākumi attiecībā uz augsta riska mākslīgā intelekta sistēmām — 36 mēnešu laikā pēc regulas spēkā stāšanās dienas.
Vispārīga informācija
Mākslīgā intelekta akts ir tieša atbilde uz pilsoņu priekšlikumiem, kas pausti Konferencē par Eiropas nākotni, jo īpaši 12. priekšlikuma 10. ieteikumā par ES konkurētspējas uzlabošanu stratēģiskajās nozarēs, 33. priekšlikuma 5. ieteikumā par drošu un uzticamu sabiedrību, tostarp dezinformācijas apkarošanu un cilvēku kontroli, 35. priekšlikumā par digitālās inovācijas veicināšanu, vienlaikus nodrošinot cilvēka veiktu uzraudzību un uzticamu un atbildīgu mākslīgā intelekta izmantošanu, kā arī 37. priekšlikuma 3. ieteikumā par MI un digitālo rīku lietošanu, lai uzlabotu iedzīvotāju, tostarp personu ar invaliditāti, piekļuvi informācijai.