Izmantojot mākslīgo intelektu, svarīga ir informācijas caurskatāmība
Inese Helmane
Mākslīgais intelekts (MI) ir mūsdienu realitāte, kas jau ir ienācis mūsu dzīvē. Kā tas iespaido darba tiesiskās attiecības? Šajā kontekstā apskatāma arī personas datu aizsardzība. MI regulējums to nekādā veidā neaizstāj. Izmantojot MI rīkus darba attiecību jomā, joprojām svarīga ir informācijas caurskatāmība. Darba tiesiskās attiecības, darba procesu un MI jautājumus Latvijas Brīvo arodbiedrību savienības ikgadējā Darba tiesību forumā ieskicēja Andis Burkevics, Sorainen ZAB zvērināts advokāts, darba tiesību prakses grupas vadītājs. «MI ir zinātnes un tehnoloģiju nozare, kas…
Mākslīgais intelekts (MI) ir mūsdienu realitāte, kas jau ir ienācis mūsu dzīvē. Kā tas iespaido darba tiesiskās attiecības? Šajā kontekstā apskatāma arī personas datu aizsardzība. MI regulējums to nekādā veidā neaizstāj. Izmantojot MI rīkus darba attiecību jomā, joprojām svarīga ir informācijas caurskatāmība.
Andis Burkevics, Sorainen ZAB zvērināts advokāts, darba tiesību prakses grupas vadītājs Foto: Kristaps Lapiks
Darba tiesiskās attiecības, darba procesu un MI jautājumus Latvijas Brīvo arodbiedrību savienības ikgadējā Darba tiesību forumā ieskicēja Andis Burkevics, Sorainen ZAB zvērināts advokāts, darba tiesību prakses grupas vadītājs.
«MI ir zinātnes un tehnoloģiju nozare, kas attīsta sistēmas un programmatūru, kas spēj veikt uzdevumus, kuri parasti prasa cilvēka intelektu. To raksturo spēja mācīties, pielāgoties, atpazīt modeļus, risināt problēmas un pieņemt lēmumus. MI var ietvert dažādas pieejas, piemēram, mašīnmācīšanos, dziļo mācīšanos, dabiskās valodas apstrādi un datorredzi,» tā MI raksturo Chatgpt.com.
«Galvenā MI pazīme ir tā, ka tas var izdarīt secinājumus. MI paver lielas iespējas. Taču līdzīgi kā uguns, ja ar to apietas nemākulīgi, MI var izraisīt lielu postu,» akcentēja A. Burkevics.
Regula piemērojama pēc pusotra gada
1 Eiropas Parlamenta un Padomes Regulu (ES) 2024/1689 (2024. gada 13. jūnijs), ar ko nosaka saskaņotas normas mākslīgā intelekta jomā un groza Regulas (EK) Nr. 300/2008, (ES) Nr. 167/2013, (ES) Nr. 168/2013, (ES) 2018/858, (ES) 2018/1139 un (ES) 2019/2144 un Direktīvas 2014/90/ES, (ES) 2016/797 un (ES) 2020/1828.2 Eiropas Parlamenta un Padomes Regula (ES) 2016/679 (2016. gada 27. aprīlis) par fizisku personu aizsardzību attiecībā uz personas datu apstrādi un šādu datu brīvu apriti un ar ko atceļ Direktīvu 95/46/EK.
Regulu, kuru dēvē par Mākslīgā intelekta aktu1, pieņēma 2024. gada 13. jūnijā un tā stājās spēkā pērn 1. augustā. Tā kļūs tieši piemērojama visās Eiropas Savienības (ES) dalībvalstīs, tai skaitā Latvijā, pēc gada, t.i., no 2026. gada 2. augusta, izņemot atsevišķus noteikumus, kas tiks piemēroti ātrāk.
Eiropadome skaidro, ka ES MI akts ir pasaulē pirmais tiesību akts par mākslīgo intelektu. Tā mērķis ir nodrošināt, ka MI sistēmas ir drošas, ētiskas un uzticamas un ka MI sistēmas tiek izstrādātas un izmantotas atbildīgi. Noteikumi uzliek pienākumus MI tehnoloģiju nodrošinātājiem un ieviesējiem, kā arī reglamentē MI sistēmu atļauju piešķiršanu ES vienotajā tirgū.
Tiesību aktā pievērsta uzmanība ar MI saistītajiem riskiem, piemēram, aizspriedumiem, diskriminācijai un pārskatatbildības nepilnībām, veicināta inovācija un sekmēta MI ieviešana. Tā kā MI akts ir pirmais šīs jomas regulējums pasaulē, ES noteikumi varētu kļūt par MI regulējuma globālu standartu — līdzīgi kā savulaik Vispārīgā datu aizsardzības regula2 (VDAR) datu privātuma jomā —, tādējādi visā pasaulē veicinot ētisku, drošu un uzticamu MI.
Četri riska līmeņi
MI akts pievēršas riskiem, kas saistīti ar konkrētiem MI lietojumiem, iedalot tos četros riska līmeņos un attiecīgi ieviešot atšķirīgus noteikumus.
Minimāls risks vai riska nav vispār
Ierobežots risks
Augstsrisks
Nepieņemams risks
Lielākā daļa MI sistēmu riskus nerada.
MI iespējotas spēles vai mēstuļu filtrus
var izmantot brīvi. ES MI akts tās
nereglamentē un neietekmē.
MI sistēmām, kas rada tikai ierobežotu risku, piemēram, sarunbotiem vai MI sistēmām, kas rada saturu, tiek piemēroti pārredzamības pienākumi, piemēram, lietotāju informēšana par to, ka to saturu ir radījis MI, lai tie varētu pieņemt apzinātu lēmumu par turpmāku izmantošanu.
Augsta riska MI sistēmām, piemēram,
tām, ko izmanto slimību diagnostikā,
autonomajā braukšanā un noziedzīgās darbībās vai izmeklēšanā iesaistītu personu biometriskajā identificēšanā, ir jāatbilst stingrām prasībām
un pienākumiem, lai saņemtu piekļuvi ES tirgum. Tas ietver stingru testēšanu, pārredzamību
un cilvēka veiktu uzraudzību.
MI sistēmas, kas apdraud cilvēku drošību, tiesības vai iztikas līdzekļus, ES izmantot ir aizliegts. Pie šādiem lietojumiem jāmin kognitīva uzvedības manipulācija, kriminoloģiskā prognozēšana, emociju uztveršana darbavietā, izglītības iestādēs, kā arī sociālā vērtēšana. Ar dažiem ierobežotiem izņēmumiem tiesībaizsardzības iestādēm arī aizliegts
izmantot reāllaika biometriskās
tālidentifikācijas sistēmas, piemēram,
sejas atpazīšanu sabiedriskās vietās.
Svarīgi ievērot VDAR prasības
«Darba attiecību kontekstā svarīgi ir ievērot Vispārīgās datu aizsardzības regulas prasības. MI akts to nekādā veidā neaizstāj,» uzsvēra advokāts. «MI akts regulē MI sistēmas. Galvenokārt tas attieksies uz MI sistēmu rīku izstrādātājiem.»
Izmantojot MI rīkus, darba attiecību ziņā joprojām svarīgāk ir nodrošināt informācijas caurskatāmību. Darbiniekam ir jāzina, kādi MI rīki tiek izmantoti, kādiem mērķiem. Īpaši tas attiecas uz novērošanas sistēmām. Tas ir svarīgi attālinātā darba gadījumā. Darbinieku uzraudzības sistēmas ir tik attīstītas, ka darbinieks var arī neuzzināt, ka visas viņa darbības tiek novērotas.
Darbiniekiem attiecībā uz MI rīkiem ir jāzina, kurš, kad un kāpēc kaut ko dara ar viņu datiem. Šīs tiesības izriet no VDAR, un tās kontekstā gan praktizējošiem darba tiesību juristiem, gan darba devējiem, gan arodbiedrībām ir uzskats, ka VDAR nav regulēts MI pielietojums attiecībā tieši uz darbinieku datu apstrādi, kas ir būtisks mīnuss. To, ka ES regulējumā iztrūkst darba attiecību elements, pašlaik mēģina labot, zināja teikt A. Burkevics.
Darba devējs var būt izdarījis visus leģitīmos veidus — veicis interešu testus, sagatavojis politikas, iespējams, pat konsultējies ar darbinieku pārstāvjiem, taču no darbinieka kā datu aizsardzības subjekta viedokļa šis regulējums ir pārāk miglains, izplūdis un nesaprotams.
Palīgs vai drauds?
Vai MI izmantošanu darba procesā varētu uzskatīt par palīgu vai draudu? Uz šo jautājumu ir ļoti dažādas atbildes. Taču attiecībā uz darbavietu skaitu A. Burkevics uzskata, ka līdz ar MI izmantošanu tās samazināsies. Savukārt tur, kur varēs izmantot dažādus MI rīkus, darbavietu skaits var palielināties.
«Interesanti, ka pastāv uzskats, ka MI visvairāk apdraud tādu profesiju kā programmētāji. Savukārt par visneaizstājamākajiem var uzskatīt medicīnas darbiniekus, jo šajā profesijā svarīgs ir cilvēka faktors. Kaut gan ir viedoklis: lai nolasītu un interpretētu izmeklējuma rezultātus, arī medicīnā varbūt drošāk ir paļauties uz MI rīkiem, nevis cilvēku. Bet tas ir atvērts jautājums,» stāstīja advokāts.
Aizvadītā gada novembrī, diskutējot portālā Politico par MI izmantošanu, Eiropas Komisijas (EK) darba attiecību ģenerāldirektorāta pārstāve atzina: «Ar ko tas viss beigsies darba attiecību izmantošanas procesā — kuras darbavietas pazudīs, kuras radīsies no jauna un cik ilgā laika notiks šīs izmaiņas, EK nav īpašas skaidrības.»
MI rīki tiek izmantoti personāla atlasē un citos personāla sijāšanas procesos, ieskaitot darbinieku paaugstināšanas procesu. No pieejamā datu apjoma MI pieņem lēmumu — it kā bezpersonisku. Šo aspektu vieni uzskata par plusu, tātad tiek izslēgta diskriminācija. Savukārt citi uzskata: ja sākuma datu kopa ir nepareiza, tad MI izmantošana personāla atlasē un citos personāla sijāšanas procesos var novest pie problēmām.
Kurš strādā — MI vai cilvēks?
A. Burkevics ieskicēja atsevišķas juridiskas problēmas, kas var veidoties, ja darbinieks savu pienākumu veikšanā izmanto MI rīkus. Rodas jautājums: vai darbinieks pats strādā jeb tas ir kāds cits? Darba attiecības ir personiskas, bet kas ir MI radītais rezultāts? Ja tiek izmantots MI un darba procesā rodas kļūda: kurš būs atbildīgs? Darbinieks vai darba devējs? Visticamāk, ka tas būs cilvēks, jo juridiski mašīna pati nenes atbildību.
Nopietns temats ir arī, kam pieder autortiesības uz paveikto, izmantojot MI? Tāpat MI pielietošanas procesā svarīga ir arī personas datu aizsardzība — kur dati ceļo un kāpēc?
Darba tiesību riski
Kādi ir darba tiesību riski, izmantojot MI? Ja MI sistēmas izmanto personāla atlasē un uzstādījums veikt atlasi pēc noteiktiem parametriem ir bijis diskriminējošs, tad rezultāts varētu būt, ka nevilšus darba devējs nonāk pie tā, ka pie viņa strādā tikai baltas ādas krāsas vīrieši vecumā starp 30 un 50 gadiem vai cita grupa. Tātad personāla atlasē kļūdaini var dominēt noteikti parametri, piemēram, tautība, darba pieredze vai kas cits.
Tiesībsarga iniciētaja pētījumā «Mākslīgā intelekta sistēmas un diskriminācijas aspekti» minēts piemērs, kad pasaulē viens no lielākajiem tehnoloģiju uzņēmumiem Amazon atteicās no MI personāla atlases rīka, kas bija diskriminējošs pret sievietēm. Amazon plaši izmanto mašīnmācības un mākslīgā intelekta sistēmas. 2015. gadā Amazon atklāja, ka algoritms, ko izmantoja darbinieku pieņemšanai darbā, ir neobjektīvs attiecībā pret sievietēm. Algoritms tika balstīts uz pēdējo desmit gadu laikā iesniegto CV skaitu, un, tā kā lielākā daļa pretendentu bija vīrieši, tas tika apmācīts dot priekšroku vīriešiem, nevis sievietēm. Sistēma noraidīja CV, kuros bija iekļauts vārds «sieviete», kā arī pazemināja sieviešu koledžu absolventu reitingus. Amazon mēģinājumi uzlabot algoritmu, padarot to neitrālāku, nenovērsa diskriminējošo iznākumu, jo sistēma varēja izsecināt kandidāta dzimumu arī no citiem datiem.
Personāla atlasē MI izmanto arī darba rezultātu novērtēšanā, tas ir ērti, uzsvēra advokāts. Taču norādīja, ka ir jābūt cilvēciskajam faktoram, kas to visu vienmēr pārbauda. Ja darba rezultāti ir novērtēti, izmantojot MI, darbiniekam ir tiesības prasīt darba devējam lēmumu pārskatīt.
Platformu darba direktīva
«Acīmredzot, ar VDAR ir par maz, tāpēc Eiropas Padomes deputāti pieņēma Platformu darba direktīvu,» skaidroja A. Burkevics. «Tajā ir skaidri noteikti pamatprincipi, kas ir jāņem vērā, izmantojot MI algoritmus, piešķirot darba uzdevumus platformu darba gadījumā.»
2024. gada aprīli Eiropas Parlamenta deputāti pieņēma Eiropas Parlamenta un Padomes direktīvu par darba nosacījumu uzlabošanu platformu darbā. Tiesību akts nodrošinās platformu darbinieku nodarbinātības statusa pareizu noteikšanu un novērsīs fiktīvu pašnodarbinātību. Noteikumi arī pirmoreiz regulēs MI algoritmu izmantošanu darba vietā. Jaunais tiesību akts ievieš nodarbinātības prezumpciju (pretstatā pašnodarbinātībai), ja pastāv fakti, kas norāda uz to, ka darbinieki tiek kontrolēti un vadīti, atbilstoši katras valsts tiesību aktiem un koplīgumiem, kā arī ņemot vērā ES judikatūru.
Direktīva uzliek par pienākumu ES dalībvalstīm ieviest atspēkojamu nodarbinātības juridisko prezumpciju, lai novērstu varas nelīdzsvarotību starp digitālajām darba platformām un personām, kas tajās strādā. Pierādīšanas pienākums gulstas uz platformu, proti, platformai būs jāpierāda, ka nepastāv darba attiecības.
Jaunie noteikumi nodrošina, ka persona, kas veic platformas darbu, nevar tikt atlaista, pamatojoties uz algoritma datiem vai pēc automatizētas lēmumu pieņemšanas sistēmas. Digitālajām darba platformām būs jānodrošina cilvēka uzraudzība attiecībā uz svarīgiem lēmumiem, kas tieši ietekmē platformas darbu veicošās personas.
Ar direktīvu tiek ieviesti noteikumi, kas stingrāk aizsargās platformu darbinieku datus. Digitālā darba platformām būs aizliegts apstrādāt noteikta veida personas datus, piemēram, par personas emocionālo vai psiholoģisko stāvokli un personisko pārliecību.
«Platformu darba direktīvā ir noteikts, ka vienmēr ir jābūt cilvēka uzraudzībai pār MI pieņemto lēmumu. Ir kategorijas ar datiem, ko apstrādāt būs aizliegts, piemēram, par personas emocionālo un psiholoģisko stāvokli, par sarunām ar darbinieku pārstāvjiem. Tāpat būs aizliegts ģenerēt tādus uzvedības modeļus, kas varētu ļaut darba devējam prognozēt, piemēram, vai šis darbinieks varētu iestāties arodbiedrībā, vai arī viņš tajā nestāsies. Šie principi būtu attiecināmi ne tikai uz platformu darbu, bet uz jebkurām darba attiecībām,» akcentēja advokāts.
Kāds būtu ieteikums darbiniekiem, darba devējiem, ieviešot praksē MI risinājumus? Vai ir kāds punkts, ko būtu pat vērts noteikt darba koplīgumos?
Atbilde
Vācijā starp darbiniekiem un darba devējiem slēdz vienošanos vai koplīgumu, kur sīki nosaka katra MI rīka veiktspēju, kādiem mērķiem tas notiek. Pie risinājuma strādā gan juristu, gan IT speciālistu komandas no abām pusēm. Vai Latvijā tas tā notiks un cik ātri, tas nav zināms. Galvenais ir informācijas caurskatāmība, lai visiem ir skaidrs, kādi MI rīki tiek izmantoti. Iespējams, ne katrreiz darba devējs apzinās, ka dati tiek uzkrāti un apstrādāti ar MI palīdzību.
Jautājums
Ja darba devējs MI izmanto darba procesā un tiek pieļauts kāds pārkāpums. Kurš beigās varētu būt atbildīgs par sekām, par aizskārumu?
Atbilde
Tas jebkurā gadījumā būs cilvēks. Ja kļūdu būs pieļāvis darba devējs, tad vērsīsies pret darba devēju. Tālāk jau darba devējs vērtēs, kurš konkrēti ir vainīgs un būs disciplināratbildība darba attiecību ietvaros.
Ja kļūda ir MI programmā, kas rīkā ir iestrādāta, tā būs darba devēja atbildība, jo darbiniekam ir tiesības uz lēmumu, kas viņu nekādā veidā nediskriminē un ļauj viņam baudīt tiesības, ko paredz Darba likums.
Ja MI rīkā būs kļūda, par to būs atbildīgs darba devējs, un, cerams, pēc tam to vairs neizmantos.
Jautājums
Platformu darba direktīva, VDAR, MI akts — visi šie normatīvie akti regulē arī datu apstrādes jautājumus. Kā saprast, kurā konkrētajā brīdī ir piemērojams attiecīgais regulējums kā speciālais normatīvais akts?
Atbilde
Darba attiecībās un personas datu apstrādē primāri vienmēr būs VDAR. Izejot no tās, varam vērtēt, kurās situācijās var izmantot MI risinājumus, ko vēl paredzēs Platformu darba direktīva.
Mēs izmantojam nepieciešamās sīkdatnes, lai analizētu apmeklējuma plūsmu un nodrošinātu savu interneta resursu pieejamību. Mēs analizējam, kā lietotāji izmanto mūsu interneta resursus un dalāmies ar datiem ar sociālo tīklu, reklāmas un datu analītikas partneriem, kas var izmantot šo informāciju, sniedzot savus pakalpojumus.Lasīt vairāk ...
Turpinot lietot mūsu tīmekļa vietni, jūs apstiprināt mūsu sīkdatnes. Apstiprināt visas
Ja vēlaties mainīt savus sīkdatņu iestatījumus, klikšķiniet uz PERSONALIZĒT, lai sniegtu kontrolētu piekrišanu.
Sīkdatnes
Šī tīmekļa vietne izmanto sīkfailus
Sīkfaili ir mazi teksta faili, ko var izmantot tīmekļa vietnēs, lai lietotāja pieredzi padarītu efektīvāku.
Likums nosaka, ka mēs varam saglabāt sīkfailus jūsu ierīcē, ja tie ir pilnīgi nepieciešams šīs vietnes darbībai. Citu veidu sīkfailiem ir nepieciešama jūsu atļauja.
Šī vietne izmanto dažādu veidu sīkdatnes. Daži sīkfaili tiek izvietoti pēc trešās puses pakalpojumiem, kas parādās mūsu lapās.
Jūs varat jebkurā laikā mainīt vai atsaukt savu piekrišanu, izmantojot mūsu tīmekļa vietnes sadaļu Sīkdatņu deklarēšana.
Personas datu apstrādes politikā varat uzzināt, kas mēs esam, kā jūs varat ar mums sazināties un kā mēs apstrādājam personas datus.
Jūsu piekrišana attiecas uz šādām jomām: www.plz.lv
Nepieciešamie sīkfaili palīdz padarīt tīmekļa vietni par izmantojamu, nodrošinot pamata funkcijas, piemēram, lappuses navigāciju un piekļuvi drošām vietām tīmekļa vietnē. Tīmekļa vietne bez šiem sīkfailiem nevar pareizi funkcionēt.
Statistikas sīkfaili palīdz tīmekļa vietņu īpašniekiem izprast, kā apmeklētāji mijiedarbojas ar tīmekļa vietnēm, vācot un anonīmi pārskatot informāciju.
Mārketinga sīkfaili tiek izmantoti, lai sekotu līdzi apmeklētājiem tīmekļa vietnēs. Nolūks ir parādīt atbilstošas un atsevišķus lietotājus interesējošas reklāmas, tādējādi tās ir daudz izdevīgākas izdevējiem un trešo personu reklāmdevējiem.