0,00 EUR

Grozs ir tukšs.

E-BILANCES JURIDISKIE PADOMIBJP RAKSTIMākslīgais intelekts un juridiskā atbildība

Mākslīgais intelekts un juridiskā atbildība

Ikars Kubliņš

Tehnoloģiju attīstības ziņā pasaule strauji mainās. Cilvēka radītas programmatūras neatkarīga, inteliģenta darbība vairs nav tikai zinātniskās fantastikas temats. Mākslīgais intelekts ienāk arī grāmatvedības nozarē, izskaitļo nodokļu riskus u.tml. Taču kurš uzņemsies juridisku atbildību par tā darbības sekām? Kā patlaban tiek risināts atbildības sadalījums automatizēto datorsistēmu un citu iekārtu nodarīta kaitējuma gadījumos? Šos jautājumus iztirzājam sarunā ar Ritvaru Purmali, SIA Jāņa Kārkliņa zvērinātu advokātu birojs juristu, kurš specializējies mākslīgā intelekta jautājumos. Kas mūsdienās tiek saprasts ar jēdzienu „mākslīgais intelekts”? Tā ir jebkura datorprogramma, vai arī piemērojami…


Lai turpinātu lasīt šo rakstu, nepieciešams iegādāties abonementu

E-BILANCES JURIDISKIE PADOMI par 12 € / mēnesī


ABONĒT

Izmēģini 30 dienas tikai par 1€ vai pērc komplektu esošā abonementa papildināšanai
 Esi abonents?

Pieslēgties

Pierakstīties
Paziņot par
0 Komentāri
Iekļautās atsauksmes
Skatīt visus komentārus
Ritvars Purmalis, SIA Jāņa Kārkliņa zvērinātu advokātu birojs jurists
Ritvars Purmalis, SIA Jāņa Kārkliņa zvērinātu advokātu birojs jurists
Foto: Aivars Siliņš

Tehnoloģiju attīstības ziņā pasaule strauji mainās. Cilvēka radītas programmatūras neatkarīga, inteliģenta darbība vairs nav tikai zinātniskās fantastikas temats. Mākslīgais intelekts ienāk arī grāmatvedības nozarē, izskaitļo nodokļu riskus u.tml. Taču kurš uzņemsies juridisku atbildību par tā darbības sekām? Kā patlaban tiek risināts atbildības sadalījums automatizēto datorsistēmu un citu iekārtu nodarīta kaitējuma gadījumos? Šos jautājumus iztirzājam sarunā ar Ritvaru Purmali, SIA Jāņa Kārkliņa zvērinātu advokātu birojs juristu, kurš specializējies mākslīgā intelekta jautājumos.

Kas mūsdienās tiek saprasts ar jēdzienu „mākslīgais intelekts”? Tā ir jebkura datorprogramma, vai arī piemērojami specifiskāki definīcijas kritēriji?

Mākslīgā intelekta galvenā atšķirības pazīme no jebkuras citas programmatūras, kas veic kādu automatizētu darbību, ir spēja pašmācīties. Tā mākslīgā intelekta vadītās programmatūras fundamentāli nošķir no visām pārējām – spēja pašmācības ceļā pieņemt autonomu lēmumu un, pieņemot šo lēmumu, gūt pieredzi, uz kuras balstoties tiks pielāgoti jau nākotnē pieņemtie lēmumi. 

Vai tas rada arī atšķirības piemērojamo tiesību aspektos? Arī parasta datorsistēma veic automatizētas darbības, kuras arī var radīt kādu kaitējumu. 

Šeit ir būtiska atšķirība. Šādu sistēmu gadījumā atbilstoši ievades datiem ir paredzams noteikts rezultāts, izejas dati. Process vienīgi tiek paveikts bez cilvēka iesaistes. Mākslīgā intelekta gadījumā iestājas iznākuma neparedzamības faktors, kas rada nopietnus juridiskus apgrūtinājumus korekti piemērot civiltiesisko atbildību. Šajā situācijā vairs nav skaidras cēlonības. Parastas datorpro­grammas gadījumā ir zināms, ka, ja ievades dati ir „X”, tad izvades dati būs „Y”. Savukārt mākslīgā intelekta spēja pašmācīties var rezultēties ar situāciju, kad ievaddati ir „X”, bet iznākums var būt pašam programmatūras izstrādātājam neparedzams. 

Attīstot mākslīgā intelekta programmas, tieši tas jau arī ir mērķis – panākt šo programmu pieņemto lēmumu neatkarību. Taču vienlaikus tas rada nepieciešamību izvērtēt, kā varam pielāgot esošos juridiskos instrumentus, lai noteiktu, kādā mērā nosakāma sistēmas operatora civiltiesiskās atbildības robeža par kādu inovatīvu risinājumu, piemēram, rodot risinājumus medicīnā, loģistikā un citās jomās. Jau pastāv noteiktas robotizētas sistēmas, piemēram, Da Vinci, kas ASV tiek izmantota, lai veiktu īpaši sarežģītas ķirurģiskas operācijas. Tas, protams, notiek ārsta uzraudzībā, tomēr pati izpilde nenotiek ar ārsta rokām. Mērķis ir izslēgt cilvēciskā paguruma kļūdas iespēju ilgstošas procedūras ietvaros. 

Cik bieži juristu uzmanības lokā vispār nonāk situācijas, kad pušu tiesiskajās attiecībās iesaistīts mākslīgais intelekts, datorsistēma – tehnoloģisks elements, kas it kā pats pieņem lēmumus, bet nevar uzņemties juridisku atbildību? Vai Latvijā šādi gadījumi jau ir dzirdēti? 
Ritvars Purmalis, SIA Jāņa Kārkliņa zvērinātu advokātu birojs jurists
Ritvars Purmalis, SIA Jāņa Kārkliņa zvērinātu advokātu birojs jurists
Foto: Aivars Siliņš

Latvijā un arī citur pasaulē pagaidām varam runāt par saskarsmi ar automatizētām sistēmām, taču ne ar tādām, kas tiešā veidā atbilstu jau pārrunātajai izpratnei par to, kas ir mākslīgais intelekts. Ir zināmas iestrādes mākslīgā intelekta attīstībā, taču pagaidām tās vēl nav pārāk pieejamas lietošanai plašākai sabiedrībai. Piemēram, pašvadošie transportlīdzekļi – tā ir viena no primitīvākajām mākslīgā intelekta izpausmēm, pats pirmsākums šajā virzienā. 

Cik tālu Eiropas Savienības (ES) līmenī nonākts pie vienota regulējuma mākslīgā intelekta jautājumos? 

Pagaidām šis darbs turpinās. 2020. gadā vēl bija runa par to, kā šos jautājumus būtu iespējams noteikt ar regulas starpniecību, bet pēc tam sekoja Eiropas Komisijas (EK) ierosinājums izveidot atsevišķu regulējumu valstīm publisko tiesību jomā, lai katrā valstī tiktu izveidota sava institūcija, kas pārraudzītu šādu sistēmu darbību. Līdzīgi kā, piemēram, visi jautājumi, kas saistīti ar personu datu apstrādi, ietilpst Datu valsts inspekcijas kompetencē. Tas neizslēgtu iespēju privātpersonām risināt nesaskaņas civiltiesiskā kārtā, bet darbotos kā publiskais uzraugs. EK arī aicināja sagatavot vadlīnijas, kas darbotos kā priekšnosacījumi mākslīgā intelekta sistēmu izstrādātājiem, lai šādas sistēmas darītu pieejamas patērētājiem ES. Pašreiz aktualitāte ir EK 2022. gada 28. septembra priekšlikums direktīvai par ārpuslīgumiskās civiltiesiskās atbildības noteikumu piemērošanu mākslīgā intelekta vadītām sistēmām. 

Vai šī EK iniciatīva ir proaktīvs mēģinājums sakārtot normatīvo ietvaru iespējamām situācijām nākotnē, vai tomēr jau bijuši kādi precedenti, kas uz to pamudinājuši?

Atsevišķi precedenti ir. Vācijā ceļu satiksmi regulējošā likumā jau 2017. gadā bija iestrādātas atsevišķas normas, kas paredzēja kārtību, kādā piemērot atbildību pašvadošajiem automobiļiem un kā tie aprīkojami, lai varētu noteikt, kurā brīdī vadītājs ir veicis noteiktas darbības, lai ietekmētu transportlīdzekļa kustību, un kad tas darbojies pilnīgi autonomi. Jautājums tikai, kurās situācijās šo atbildību piemērot. Piemēram, ja tiek noslēgts privāttiesisks līgums par pakalpojuma sniegšanu, līgumiski ir iespējams atbildību noregulēt, kā vien puses vēlas. Var paredzēt nejaušības riskus, var atrunāt līgumisko atbildību līdz minimumam. 

Citiem vārdiem – ja vēlies izmantot manis radīto tehnoloģiju, tad pats uz savu atbildību? 
Ritvars Purmalis, SIA Jāņa Kārkliņa zvērinātu advokātu birojs jurists
Ritvars Purmalis, SIA Jāņa Kārkliņa zvērinātu advokātu birojs jurists
Foto: Aivars Siliņš

Jā, piemēram! Taču cita situācija ir tad, ja runājam par ārpuslīgumiskiem pārkāpumiem jeb tā dēvēto deliktu, kad cietusī ir kāda trešā puse. Tieši ceļu satiksmes negadījumi, kuros bija iesaistīti pašvadošie transportlīdzekļi, Vācijā un citviet lika pievērsties šī jautājuma noregulēšanai.

Vai Latvijas tiesību normās kaut kas ir noteikts saistībā ar situācijām, kad lēmumus pieņem mākslīgais intelekts? 

Man nav zināms, ka Latvijas normatīvajos aktos būtu kāds atsevišķs, niansēts regulējums šādām situācijām. Tomēr tas nenozīmē, ka tiesību normu piemērotājam būtu liegts izmantot analoģiju centienos rast risinājumu pastāvošai situācijai, kas vēl atsevišķi nav regulēta.

Pieminējāt Vācijas pieredzi ar pašvadošajiem automobiļiem. Vai ir dzirdēts arī par tiesāšanās precedentiem situācijās, kur bijis iesaistīts mākslīgais intelekts?

Ir bijuši atsevišķi gadījumi medicīnas jomā ASV, kur ar datorizētu sistēmu starpniecību tikušas noteiktas kļūdainas diagnozes personām, kā rezultātā izvēlēta nepareiza ārstniecības metodika. Pēc būtības tās ir situācijas, kad ārsts savu amata pienākumu izpildē izmanto kādu datorprogrammu, lai optimizētu informācijas apstrādi, paredzamības elementu utt., bet ir radusies kļūda, uz kuras pamata ārsts izdarījis nepareizu slēdzienu un personai, piemēram, tiek izrakstīti nepareizi medikamenti vai noteikta nepareizu medicīnisko manipulāciju veikšana, kas savukārt ir radījusi kaitējumu veselībai. Šajos gadījumos tiesas parasti saskatījušas ārstējošās iestādes un ārsta atbildību.

No jūsu un kolēģa Jāņa Kārkliņa rakstā „Mākslīgais intelekts un civiltiesiskā atbildība”1 paustā izriet – ja kaitējumu nodarījusi tehnika, tad nepiemēro tā saucamo atbildību par vainojamību personai, bet var piemērot stingro atbildību jeb bezvainas atbildību... Kā tas praksē izpaužas? Ja, piemēram, tehnikas kļūmes dēļ nogāžas lidmašīna, tad kā tiek sadalīta atbildība starp pilotu, aviokompāniju un lidmašīnas ražotāju? 
Ritvars Purmalis, SIA Jāņa Kārkliņa zvērinātu advokātu birojs jurists
Ritvars Purmalis, SIA Jāņa Kārkliņa zvērinātu advokātu birojs jurists
Foto: Aivars Siliņš

Minētā raksta ietvaros tika norādīts, ka tehnoloģiskā progresija un mehānisko risinājumu klātesamība ikdienā radīja paaugstinātu bīstamību, kāda iepriekš nepastāvēja. Tas savukārt bija pamatojums tam, lai šādu paaugstinātas bīstamības avotu operatoru civiltiesiskā atbildība tiktu izvērtēta stingrās atbildības modelī, kuras piemērošanas priekšnoteikums ir likumā noteiktu attaisnojumu neesamība. Jāskatās katras nozares regulējošajā normatīvajā aktā, kur ir noteikta vadītāja, ražotāja, operatora atbildība. Tad var secināt, kura atbildības piesaistes forma izmantojama un kādā kārtībā atbildība piemērojama. Saistībā ar aprakstīto piemēru tas nozīmētu, ka atbildības piemērošanas kontekstā būtu nepieciešams izvērtēt, vai un kādi attaisnojuma pamati ir noteikti spēkā esošajā regulējumā (piemēram, likumā „Par aviāciju”) saistībā ar nodarīto kaitējumu. Neieslīgstot detaļās, var atzīt, ka aviokompānijai kā pārvadātājam būtu nepieciešams norādīt uz konkrētiem atbildību izslēdzošiem pamatiem. Ja to izdarīt nav iespējams, tad ir pamats piemērot civiltiesisko atbildību par nodarīto kaitējumu. 

Mazliet atšķirīgs piemērs – ja rodas drona vadības programmatūras kļūme un drons, pretēji pilota vēlmei, aizlido pavisam citur, nokrīt un rada kaitējumu trešajām personām, vai atbildība primāri tiks prasīta no pilota?

Visticamāk, sākotnēji tiks radīta šāda atbildības piesaiste. Tālāk jau pilota ziņā ir tas, kā viņš varētu norādīt uz programmatūras kļūdu, kas bija iestājusies, un kā runāt ar personu, kas šo produktu ražojusi. 

Ja modelējam situāciju ar droniem, kas jau atbilstu mākslīgā intelekta kritērijiem (piemēram, lietotājs dod uzdevumu dronam fotografēt Rīgas jūgendstila ēkas, un drons pats, tai skaitā pašmācoties, atpazīt arhitektūras stilistiku, izpilda) – kā mainītos juridiskās atbildības aspekts? Vai lietotājs taptu brīvāks no atbildības? 

ES politikas plānošanas dokumentos bija paredzēts, ka jā. Šādos gadījumos operatoriem būtu paredzēta iespēja paust savus iebildumus saistībā ar to, cik liela ir bijusi viņu kontrole pār attiecīgo objektu ar mākslīgā intelekta īpašībām. Atkarībā no tā, kāds ir bijis šis kontroles apmērs un cik liela varēja būt tā ietekme uz iznākumu, būtu diferencējama atbildība.

Vai šī duālā situācija būtu juridiski loģiska un taisnīga? Vai tam ir nozīme, kādu cēloņu dēļ drons kļuva nevadāms – vai mākslīgā intelekta viedo, pašmācības ceļā pieņemto lēmumu vai primitīvākas programmatūras kļūmes dēļ? Iznākums taču ir viens – lietotājam faktiski vairs nebija kontroles. Kāpēc tad vienā gadījumā no viņa tiktu prasīta lielāka atbildība nekā otrā gadījumā?
Ritvars Purmalis, SIA Jāņa Kārkliņa zvērinātu advokātu birojs jurists
Ritvars Purmalis, SIA Jāņa Kārkliņa zvērinātu advokātu birojs jurists
Foto: Aivars Siliņš

Nav runas par to, ka vienā gadījumā tiktu prasīta „lielāka” atbildība no mākslīgā intelekta vadītas sistēmas operatora, savukārt otrā – „mazāka”. Runa ir par to, ka saskaņā ar Eiropas Komisijas 2020. gada ierosinājumiem bija paredzēts nodrošināt to, ka iespējamā civiltiesiskā atbildība par nodarīto kaitējumu sākotnēji tiek attiecināta uz visām personām (solidārā atbildība), kurām ir bijusi kontrole pār mākslīgā intelekta vadītas sistēmas darbību, un noteikt, ka tiešais operators (persona, kas zināmā mērā kontrolē risku, kas ir saistīts ar mākslīgā intelekta vadītas sistēmas darbību) un atbalsta operators (persona, kas nosaka tehnoloģijas iezīmes un sniedz datus un būtisku atbalsta pakalpojumu sistēmas darbības nodrošināšanai). Proti, bija paredzēts noteikt, ka iesaistītie operatori var vērst savstarpējus regresa prasījumus, kur piemērojamās atbildības proporcionālā daļa ir nosakāma atbilstoši tam, kāda kontroles pakāpe attiecībā uz risku, kas saistīts ar mākslīgā intelekta sistēmas darbību un funkcijām, ir bijusi katram no iesaistītajiem operatoriem.

Datorsistēmas Latvijā izmanto arī valsts pārvaldes sistēmās, apstrādājot personu, nodokļu maksātāju datus. Piemēram, Valsts ieņēmumu dienesta (VID) sistēmas uzrāda riskantos nodokļu maksātājus. Kamēr uz tā pamata vien netiek pieņemti lēmumi un sistēmu izmanto tikai informācijas atlasei, bet tālāku pārbaudi pirms lēmuma pieņemšanas veic cilvēks, tikmēr nekādas juridiskas pretrunas šeit neveidojas?

Šī nav situācija, kad sistēma tiešā veidā būtu pati kaut ko izdarījusi. Tas ir līdzīgi kā piemērā ar ārstiem ASV – lai gan datorprogramma noteica diagnozi, lēmumu par konkrētas ārstniecības piemērošanu pieņēma un īstenoja pats ārsts. 

Tātad, ja VID nodokļu uzrēķinus sāktu piemērot un pamatot tikai uz programmatūras identificēto risku pamata, tad nodokļu inspektoriem tiesā varētu iziet tāpat kā ārstiem šajā piemērā, proti, tiesa norādītu, ka tā rīkoties nedrīkst?

Neļaušos paredzēt iespējamās tiesas norādes, bet varu teikt, ka būtu svarīgi spēt izskaidrot, kādā veidā konstatētais risks „X” ir pamats piemērotajam nodokļu uzrēķinam „Y”. Nodokļu uzrēķina pamats ir nesegtās nodokļu saistības, nevis iespējami vai vēl gaidāmi „riski”.

Modelējot citu situāciju – ja VID nodokļu parādu reģistrā palicis ieraksts par uzņēmumu, kaut gan parāds jau dzēsts, un tādēļ šis uzņēmums nevar pieteikties uz kādu publisko iepirkumu... Pret ko šajā gadījumā vērsties ar zaudējumu piedziņu? Un ar kādu zaudējumu piedziņu, jo nav jau zināms, vai uzņēmums vispār būtu konkursā uzvarējis?

Sastopoties ar šādām situācijām, galvenais ir laikus komunicēt ar sistēmas uzturētāju, lai pamanītās kļūdas novērstu un uzņēmums tomēr pagūtu pieteikties iepirkuma procedūrai. Es nevaru iedomāties situāciju, ka VID pēc pirmā signāla varētu informāciju neaktualizēt. Ja tomēr tā notiktu, tad būtu jāvērtē, kādas potenciālās sekas šāda iestādes rīcība ir personai radījusi.

Kādus tiesiskus riskus jūs saredzat šādu un līdzīgu datorsistēmu darbībā, kuras izmanto valsts pārvalde? Varbūt ir piemēri no klientu pieredzes?
Ritvars Purmalis, SIA Jāņa Kārkliņa zvērinātu advokātu birojs jurists
Ritvars Purmalis, SIA Jāņa Kārkliņa zvērinātu advokātu birojs jurists
Foto: Aivars Siliņš

Kā lielāko risku saskatu spēju izsekot datorizētās sistēmas darbībai. Ja runājam par kaitējumu, ko var radīt šādu datorsistēmu darbība, no civiltiesiskās atbildības piemērošanas viedokļa ir ļoti svarīgi spēt noteikt cēlonību starp sistēmas lēmumu un rezultātu. Informācija no datorsistēmu izstrādātājiem var būt nepilnīga, un tas var apgrūtināt civiltiesiskās atbildības piesaisti pašam sistēmas izstrādātājam vai starpnieklietotājam, kas sistēmu izmantojis. Ja mēs nevaram izsekot, kāda bijusi dažādu raksturlielumu ietekme uz sistēmas darbību, tad arī nevarētu īstenot iecerēto diferencētās atbildības noteikšanu atkarībā no kontroles pakāpes, jo nebūtu iespējams noteikt, kam, kurā brīdī un cik liela bijusi kontrole un ietekme pār sistēmas darbību. Tāpēc EK to vēlas izvirzīt kā prasību šādu sistēmu izstrādātājiem. 

Arī grāmatvedības uzskaites datorprogrammas kļūst aizvien sarežģītākas, un tiek prognozēts, ka ne tik tālā nākotnē grāmatvedis varēs atteikties no rutinizētām uzskaites darbībām un gada pārskatu sagatavošanas, tā vietā fokusējoties uz uzņēmuma rādītāju analīzi un pārkvalificējoties par tādu kā biznesa stratēģisko konsultantu. Vienlaikus atbildība par datorsistēmas sagatavoto gada pārskatu tāpat kādam būs jāuzņemas – uzņēmuma vadītājam, kurš paļāvies uz grāmatvedi. 

Jau patlaban grāmatvedībā tiek izmantotas dažādas programmatūras, kaut vai lai veiktu matemātiskus aprēķinus. Ja veidojas kāds nepareizs aprēķins un tā rezultātā saņem sodu, tad uzņēmumam ir tiesības vērsties ar pretenziju pret grāmatvedi, jo viņš ir sniedzis nekvalitatīvu pakalpojumu. Tad varam runāt par grāmatveža līgumisko atbildību (uzņēmuma līguma gadījumā). Savukārt grāmatvedis varētu risināt šo jautājumu ar programmatūras izstrādātāju, mēģinot pierādīt, ka sistēma nepareizi rēķināja.

Vai arī cits variants – uzņēmuma vadītājs nolemj, ka grāmatvedis kā konsultants viņam nav vajadzīgs un to atlaiž, turpmāk paļaujoties tikai uz sistēmas automātiski sagatavotajiem dokumentiem...

Šādas situācijas ir iespējamas nākotnē, kad (un ja), piemēram, netiktu izvirzītas īpašas prasības pēc piesaistītā grāmatveža apliecinājuma uz konkrētiem dokumentiem. Uzņēmuma vadītājs varētu izlemt, vai maksāt algu, sociālās iemaksas par grāmatvedi, ja sistēma pati ģenerēs visus nepieciešamos pārskatus.

Vai ir arī tādas situācijas, kad cietusī puse var prasīt atbildību nevis no sistēmas operatora, bet izstrādātāja?

Šāda sasaiste pagaidām neizriet no spēkā esošā regulējuma. Līdz ar to situācija būtu risināma, līdzīgi kā tas tiek noteikts produktu atbildības regulējumā, kur, gadījumā ja patērētājam tikusi darīta pieejama prece un tā izrādījusies defektīva, patērētājs attiecīgo neatbilstību primāri risina ar pārdevēju, kas savukārt savu regresa prasījumu un turpmākos iebildumus var vērst pret attiecīgās preces izstrādātāju, kad pārdevējs attiecīgo patērētāja prasījumu ir apmierinājis. 

UNESCO rekomendācijās par mākslīgā intelekta ētiku paustas bažas par cilvēktiesību, pamatbrīvību, ētikas principu ievērošanu. Kā mākslīgais intelekts apdraud šos principus?
Ritvars Purmalis, SIA Jāņa Kārkliņa zvērinātu advokātu birojs jurists
Ritvars Purmalis, SIA Jāņa Kārkliņa zvērinātu advokātu birojs jurists
Foto: Aivars Siliņš

Ir runa par cilvēku profilēšanu, kad varētu tikt uzskaitīti dati, piemēram, par personas izdarītajiem administratīvajiem pārkāpumiem, personas kredītreitingu, iepirkšanās un dzīves paradumiem u.tml., un saskaņā ar to noteikts, kādas šim cilvēkam būs iespējas noteiktajā jurisdikcijā. Piemēram, profilējot personu, varētu tikt pieņemts, ka šī persona būs nemaksātājs, jo ir konstatējama vēsturiska sodāmība vai kas cits. Atsevišķās valstīs tas jau notiek. Galvenais uzsvars – izstrādājot un izmantojot algoritmisko profilēšanu, ir īpaši svarīgi nodrošināt objektivitāti un attiecīgajā jurisdikcijā pastāvošo tiesību principu ievērošanu. 

Latvijā taču, piemēram, pastāv kredītreģistrs.

Kredītreģistrs ir valsts informācijas sistēma, kuras mērķis ir nodrošināt nepieciešamās informācijas apkopošanu atbildīgas kreditēšanas jomā. Ir vienīgi pašsaprotami, ka, piemēram, patērētāju kreditēšanas tirgus dalībniekiem ir lietderīgi būt informētiem par potenciālā patērētāja kredītspēju, lai jau priekšlaicīgi izvērtētu iespējamās sadarbības ietvaru. Jāņem vērā, ka UNESCO rekomendācijas par mākslīgā intelekta ētiku ir attiecināmas vienīgi uz mākslīgā intelekta vadītām sistēmām (bez fiziskās personas iesaistes) un tās kopumā aptver tādus principus kā proporcionalitāte, kaitējuma nepieļaušana, drošība, taisnīgums, tiesības uz privātumu un datu aizsardzību u.c.

Kā ar kredītņēmēju „melno sarakstu”, kad kredītņēmējam, pamatojoties uz pagātnē nesamaksātiem kredītiem, jaunus vairs nepiešķir?

Šajā sakarā ir svarīgi apzināties, ka kreditēšanas pakalpojumi nav kas tāds, ko kredītņēmējs varētu pieprasīt no kādas kredītiestādes piespiedu kārtā. Katra kredītiestāde atbilstoši savām iekšējām procedūrām un uzņēmējdarbības stratēģijai nosaka pieņemamos raksturlielumus, kuriem izpildoties tiek atzīts, ka ar konkrētu kredītņēmēju var tikt nodibināta sadarbība. Tādēļ, gadījumā ja jau minētajā valsts informācijas sistēmā ir redzami ieraksti par konkrētas personas nelabvēlīgajiem saistību izpildes paradumiem, tos ir visnotaļ pamatoti izmantot kā atskaites punktu, lai attiecīgā kredīt­iestāde izlemtu, vai ar konkrēto personu ir pamats sadarboties. Šāda veida informācijas apstrādi, manuprāt, nevar definēt kā kaut ko nelabvēlīgu vai ko tādu, kas nonāktu pretrunā ar attiecīgā reģistra darbību regulējošajā normatīvajā aktā definētajiem mērķiem un tajā apkopotās informācijas izmantošanas veidiem. Nedrīkst pieļaut diskrimināciju, nepamatotu datu apstrādi. Kā piemēru varu minēt Nīderlandē izmantotu programmatūru SyRI, kas profilēja sociālos pabalstus saņemošas personas, viņu paradumus, tiem izsniegto pabalstu apmērus un to, cik daudz pabalstus saņemošu personu dzīvo vienā dzīvesvietā. Pastāvēja aizdomas, ka daudzi nodarbojas ar krāpnieciskām darbībām, saņemot sev nepienākošos pabalstus. Sistēmas darbībā tika pamanītas kļūdas, jo „melnajā sarakstā” tika iekļautas un pārbaudēm pakļautas personas, kas dzīvoja noteiktos reģionos, vai tiem bija noteikta ādas krāsa, etniskā izcelsme. Visbeidzot tika nolemts šo sistēmu vairs neizmantot, jo tika konstatēts, ka tā nonāk pretrunā ar Vispārīgajā datu aizsardzības regulā noteikto.

1 Raksts publicēts žurnālā Jurista Vārds, 2020. g., Nr. 37.

Publicēts žurnāla “Bilances Juridiskie Padomi” 2022. gada novembra (113.) numurā.

Pareizrakstības kļūdas ziņojums

Redaktoriem tiks nosūtīts šāds teksts: