Eiropas Savienībā (ES) 2024. gada 13. jūnijā tika pieņemta Eiropas Parlamenta un Padomes Regula 2024/1689, kas nosaka saskaņotas normas mākslīgā intelekta jomā, – Mākslīgā intelekta akts (MI akts). Regula stājās spēkā 1. augustā un kļūs tieši piemērojama visās ES dalībvalstīs, tostarp Latvijā, pēc diviem gadiem, t. i., no 2026. gada 2. augusta, izņemot atsevišķus noteikumus, kas tiks piemēroti ātrāk.
Pārbaudīs, vai MI atbilst pamattiesībām
Tiesībsarga biroja Diskriminācijas novēršanas nodaļas vadītāja Anete Ilves skaidro, ka ES dalībvalstīm nacionālā līmenī ir jānosaka dažādas institūcijas, kas gādās par to, lai izmantotās MI sistēmas būtu drošas.
“Pašlaik Latvijā tiek ieviesta Regula (ES) 2024/1689, tas ir izaicinājumu pilns process,” uzsver A. Ilves. “Tā kā tiesībsargam ir plānots uzticēt pienākumus, kas izriet no MI akta 77. panta, t. i., viņš varēs pārbaudīt, vai Latvijā izmantotās MI sistēmas atbilst pamattiesībām, jau laikus sākam apzināt pašreizējo situāciju.”
Tāpēc ir tapis pētījums “Mākslīgā intelekta sistēmas un diskriminācijas aspekti”, kurā aplūkotas četras no astoņām MI aktā noteiktajām augsta riska jomām, identificējot MI sistēmas, kas jau ir veicinājušas dažādus pamattiesību pārkāpumus (galvenokārt diskriminācijas aizlieguma neievērošanu).
Šīs četras jomas ir:
- fizisku personu biometriskā identifikācija un kategorizācija;
- izglītība un arodapmācības;
- nodarbinātība, darba ņēmēju pārvaldība un piekļuve pašnodarbinātībai;
- piekļuve privātiem pamatpakalpojumiem un sabiedriskajiem pakalpojumiem un pabalstiem un to izmantošana.
Šo pētījumu tiesībsarga uzdevumā veica Latvijas Universitātes pētniece Dr. iur. Irēna Barkāne.
Savukārt otrs tiesībsarga iniciētais pētījums, kuru plānots pabeigt līdz šī gada nogalei, attiecas uz MI sistēmu radīšanu vai izmantošanu Latvijas augstākās izglītības mācību iestādēs. Vienlaikus tiek pētīts, vai studenti saņem informāciju par dažādiem pamattiesību riskiem, ko sevī var ietvert MI sistēmas.
Ja mākslīgais intelekts kļūdās
“MI ir mūsdienu realitāte. Tas var atvieglot sadzīves rūpes, palīdzēt veikt dažādus darba pienākumus vai plānot, piemēram, sabiedriskā transporta tīklu,” norāda A. Ilves.
“Tomēr, ja MI sistēmas izstrādē netiek ņemtas vērā sabiedriskās normas un vērtības, tad šī sistēma ātri vien var kļūt par draudu. Piemēram, ja cilvēks strādājot pieļauj kļūdu, tad šī kļūda skar vienu vai vairākus citus cilvēkus, turklāt ierobežotā laika posmā. Savukārt, ja kļūdu pieļauj MI sistēma, tad atkarībā no tā, kā šī sistēma darbojas, kļūda skar jau konkrētu sabiedrības grupu. Tas notiek nepārtraukti, kamēr vien kāds konstatē kļūdu.”
Pētījumā aprakstīta situācija Nīderlandē, kad 2000. gadu sākumā tika ieviesta krāpšanas riska identificēšanas sistēma, lai atklātu pārkāpumus sociālās labklājības jomā. Nīderlandes Nodokļu un muitas administrācija laika posmā no 2005. līdz 2019. gadam nepamatoti apsūdzēja aptuveni 26 000 vecāku par krāpnieciskiem pabalstu pieprasījumiem, liekot viņiem pilnībā atmaksāt saņemtos pabalstus. Daudzos gadījumos summa pārsniedza vairākus desmitus tūkstošu eiro, radot ģimenēm smagas finansiālās grūtības.
“Šī lieta ir skatīta arī no cilvēktiesību viedokļa. Piemēram, kolēģi no Nīderlandes ir norādījuši, ka atsevišķos gadījumos vecākiem tika atņemti bērni un konstatēti arī pašnāvības gadījumi,” atklāj A. Ilves.
Krāpšanas riska identificēšanas sistēmas izmantošana tika apturēta ar Hāgas tiesas spriedumu 2020. gadā. 2021. gadā šis skandāls piespieda atkāpties Nīderlandes valdību.
Latvijā līdz šim nav izskatītas lietas, kas saistītas ar MI sistēmu radīto diskrimināciju, norādīts pētījumā “Mākslīgā intelekta sistēmas un diskriminācijas aspekti”.
Bēdīga pieredze personālatlases jomā
Pētījumā minēti arī vairāki citi piemēri no ārvalstu prakses, kas parāda, kā MI sistēmu izmantošana nodarbinātības jomā var pārkāpt diskriminācijas aizlieguma principu.
Viens no lielākajiem tehnoloģiju uzņēmumiem pasaulē “Amazon” atteicās no MI personāla atlases rīka, jo tas diskriminēja sievietes. Algoritms, kurš tika izmantots darbinieku pieņemšanai darbā, tika balstīts uz pēdējo desmit gadu laikā iesniegto CV skaitu. Tā kā lielākā daļa pretendentu bija vīrieši, MI personāla atlases rīks tika apmācīts dot priekšroku vīriešiem, nevis sievietēm, kā arī pazemināja sieviešu koledžu absolventu reitingus. Mēģinājumi algoritmu padarīt neitrālāku nenovērsa diskriminējošo iznākumu, jo sistēma varēja secināt dzimumu no citiem datiem.
Pētījumā arī norādīts, ka darba sludinājumu izplatība sociālo mediju platformās var beigties ar to, ka konkrēta tipa darba sludinājumu reklāmas, piemēram, par kravas automašīnas vadītāja amatu, tiek rādītas sabiedrībai, kurā 93% ir vīrieši un 7% sievietes. Vai arī otrādi, ja, piemēram, profesijā vairāk ir nodarbinātas sievietes, tad atbilstošu darba sludinājumu redz sievietes, nevis vīrieši.
Cits personāla atlases rīks mērīja, cik ilgā laikā tika uzsākta un pabeigta CV ievade uzņēmuma personāla atlases sistēmā. Lai arī šāds kritērijs ir neitrāls, tomēr tas atstāja negatīvu ietekmi uz kandidātiem ar invaliditāti vai kandidātiem, kas paralēli CV ievadei veica arī aprūpes pienākumus. Lielākoties tās bija sievietes.
Regulējums nav pietiekams
“Neraugoties uz plašo ES diskriminācijas aizlieguma tiesiskā regulējuma darbības jomu, regulējumam, kas paredz aizsardzību pret diskrimināciju dzimuma un rases dēļ, ir daudzas nepilnības, kas ir problemātiskas algoritmiskās diskriminācijas kontekstā,” pētījuma kopsavilkumā secina autore I. Barkāne.
“Latvijā diskriminācijas aizliegums ir konstitucionāli nostiprinātas pamattiesības, kā arī to paredz daudzi citi Latvijas tiesību akti. Tajā pašā laikā diskriminācijas aizlieguma regulējums nav pietiekams, lai efektīvi aizsargātu pret algoritmisko un MI sistēmu radīto diskriminācijas risku.”
Pētniece kopsavilkumā sniedz rekomendācijas diskriminācijas risku novēršanai. Viņa uzsver, ka liela nozīme ir datu kvalitātei un pārvaldībai, MI sistēmām jābūt pārredzamām un izskaidrojamām, būtiska nozīme ir cilvēka virsvadībai, kā arī svarīgi izstrādāt pienācīgas atbilstības novērtēšanas procedūras augsta riska MI sistēmām.
Diskriminācijas jomā draudus nesaskata
Latvijas Zinātņu akadēmijas eksperts, “Biznesa augstskola “Turība”” Informācijas tehnoloģijas katedras vadītājs, asociētais profesors Jānis Pekša piekrīt pētījuma kopsavilkuma rekomendācijām, kas būtu jāievēro katram MI izstrādātājam un uzturētājam.
“MI sistēmās ir jābūt augstā līmenī nodrošinātai datu kvalitātei un pārvaldībai. Ievērojot MI aktā noteiktās prasības, ir jābūt atbilstošiem datiem ar apmācības, validēšanas un testēšanas datu kopām. Datiem jābūt precīziem un izskaidrojamiem – kur tie rodas, kā tiek izmantoti MI sistēmā. Ir jāpārliecinās par MI sistēmas spējām, to ierobežojumiem pārredzamā vidē, piemēram, pārvaldības rīkā, definējot robežvērtības, vērojot sistēmas uzvedību un nodrošinot cilvēka virsvadību,” norāda J. Pekša.
Asociētais profesors uzsver, ka “cilvēku virsvadībai ir liela nozīme, lai sistēmas tiktu vadītas pareizi, pārliecinoši un varētu izvairīties no negatīvām sekām. Tādā veidā iespējams minimizēt potenciālos riskus. Ir jādefinē noteiktas robežvērtības, pirms iestājas kāds risks, piemēram, sistēmas darbības apturēšana”.
J. Pekša nesaskata nozīmīgus diskriminācijas draudus Latvijas MI sfērā, jo MI akts un vadlīniju izstrādātāji iestādēs un uzņēmumos ievēro vienlīdzības pamatprincipus.
“Ja aizdomājamies par diskrimināciju, tad tā parasti ir dzimuma, rases, etniskās izcelsmes, reliģiskā, politiskā, invaliditātes, vecuma vai dzimumorientācijas diskriminācija. Ja kāds no šiem kritērijiem ir iesaistīts MI algoritmā, tad tas tiek aprakstīts jau sākotnējā stadijā pirms izstrādes, lai tiktu nodrošināti nediskriminējoši apstākļi,” norāda J. Pekša.