0,00 EUR

Grozs ir tukšs.

0,00 EUR

Grozs ir tukšs.

E-ŽURNĀLS BILANCEBILANCES RAKSTIKā juridiski droši izmantot mākslīgo intelektu uzņēmējdarbībā

Kā juridiski droši izmantot mākslīgo intelektu uzņēmējdarbībā

Ikars Kubliņš

Mākslīgais intelekts (MI) pēdējos gados ir kļuvis par vienu no daudzsološākajām tehnoloģijām, sniedzot iespējas paveikt dažādus uzdevumus ātrāk un efektīvāk. Tomēr līdz ar straujo attīstību parādās arī jauni izaicinājumi, īpaši juridiskajā jomā. Lai uzņēmumi un sabiedrība kopumā varētu sekmīgi un droši izmantot MI potenciālu, ir būtiski apzināties un pārvaldīt ar tā lietošanu saistītos juridiskos riskus. Par tiem informēja Nataļja Puriņa, ZAB PWC Legal tiesvedības un strīdu risināšanas prakses grupas vadītāja, zvērināta advokāte, RMS Forum organizētajā seminārā «Uzņēmumu digitalizācijas juridiskie aspekti 2025». Normatīvais ietvars 1 Eiropas Parlamenta un Padomes Regula (ES) 2024/1689…


Lai turpinātu lasīt, iegādājies abonementu

BilancePLZ ar 7 dienu izmēģinājumu par 1€

24,99 /mēnesī
Ikmēneša abonements
  • Bezlimita pieeja VISIEM portāla un žurnāla rakstiem 1 lietotājam
  • E-žurnāls BILANCE
  • Iekļauts juridisko padomu saturs
  • 7 dienu izmēģinājums tikai par 1€ (ar automātisku turpināšanu)
0,74€ /dienā

BILANCE internetā
+ BilancePLZ

269 /gadā
12 mēnešu abonements
  • Bezlimita pieeja VISIEM portāla un žurnāla rakstiem 3 lietotājiem
  • E-žurnāls BILANCE
  • Iekļauts juridisko padomu saturs
  • Dāvanā 100+ semināru videotēka vairāk nekā 5000 € vērtībā!

Jau ir abonements?
Pieslēdzies

Pierakstīties
Paziņot par
0 Komentāri
jaunākie
vecāki populārakie
Iekļautās atsauksmes
Skatīt visus komentārus
Kā juridiski droši izmantot mākslīgo intelektu uzņēmējdarbībā
Ilustrācija: © Uncanny Valley — stock.adobe.com

Mākslīgais intelekts (MI) pēdējos gados ir kļuvis par vienu no daudzsološākajām tehnoloģijām, sniedzot iespējas paveikt dažādus uzdevumus ātrāk un efektīvāk. Tomēr līdz ar straujo attīstību parādās arī jauni izaicinājumi, īpaši juridiskajā jomā. Lai uzņēmumi un sabiedrība kopumā varētu sekmīgi un droši izmantot MI potenciālu, ir būtiski apzināties un pārvaldīt ar tā lietošanu saistītos juridiskos riskus. Par tiem informēja Nataļja Puriņa, ZAB PWC Legal tiesvedības un strīdu risināšanas prakses grupas vadītāja, zvērināta advokāte, RMS Forum organizētajā seminārā «Uzņēmumu digitalizācijas juridiskie aspekti 2025».

Normatīvais ietvars

1 Eiropas Parlamenta un Padomes Regula (ES) 2024/1689 (2024. gada 13. jūnijs), ar ko nosaka saskaņotas normas mākslīgā intelekta jomā un groza Regulas (EK) Nr. 300/2008, (ES) Nr. 167/2013, (ES) Nr. 168/2013, (ES) 2018/858, (ES) 2018/1139 un (ES) 2019/2144 un Direktīvas 2014/90/ES, (ES) 2016/797 un (ES) 2020/1828.

Gan Eiropas Savienībā (ES), gan Latvijā tiek aktīvi strādāts pie normatīvā ietvara, kas regulētu MI izmantošanu. Primārais Eiropas Savienības (ES) līmeņa dokuments ir Mākslīgā intelekta akts1 (turpmāk — MI Akts), kura mērķis ir noteikt vienotu tiesisku regulējumu MI sistēmu izstrādei, ieviešanai tirgū, nodošanai ekspluatācijā un lietošanai visā ES. Lai gan šis regulējums primāri ir vērsts uz MI risinājumu un sistēmu izstrādātājiem, tas paredz zināmus pienākumus arī lietotājiem.

ES MI Akta galvenais mērķis ir nodrošināt uz cilvēku orientētu un uzticamu MI ieviešanu, vienlaikus garantējot augstu aizsardzības līmeni tādās jomās kā pamattiesības un tiesiskums.

Atbilstoši ES regulējumam, arī Latvijā ir izstrādāts nacionālais Mākslīgā intelekta centra likums. Tas gala lasījumā pieņemts 2025. gada 6. martā un ir spēkā no 20. marta. Šim likumam būs jāveicina publiskā un privātā sektora sadarbību, lai attīstītu inovācijas un sekmētu MI izmantošanu tādās nacionālo interešu jomās kā izglītība, veselības aprūpe un valsts pārvalde.

MI risku gradācija

Nataļja Puriņa, ZAB PWC Legal tiesvedības un strīdu risināšanas prakses grupas vadītāja, zvērināta advokāte
Nataļja Puriņa,
ZAB PWC Legal tiesvedības un strīdu risināšanas prakses grupas vadītāja, zvērināta advokāte
Foto: Aivars Siliņš

ES MI Akts veido uz riskiem balstītu sistēmu, kas nozīmē, ka daži MI risinājumi ir pilnībā aizliegti, citi tiek klasificēti kā augsta riska, ierobežota riska vai zema riska. Aizliegtas ir tādas tehnoloģijas, kuru izmantošana un izstrāde primāri ir aizliegta. Pie šādām tehnoloģijām pieder, piemēram, sejas atpazīšanas datubāzes, kas veic nemērķtiecīgu seju atpazīšanu publiskās vietās, ļaujot izsekot personu ikdienas pārvietošanās maršrutiem. Tāpat aizliegtas sistēmas, kas spēj atpazīt fizisku personu emocijas darba vietā vai izglītības iestādē, piemēram, lai vērtētu kandidātus darba intervijās pēc viņu emocionālās reakcijas. Aizliegti arī risinājumi, kas spēj prognozēt personu risku izdarīt nozīmīgus nodarījumus vai kvalificēt personas, pamatojoties uz sociālo profilēšanu vai uzvedību. Svarīgi atzīmēt, ka aizliegumi attiecībā uz šiem lietojumiem ir stājušies spēkā jau 2025. gada 2. februārī (kopumā MI Akts stājas spēkā pakāpeniski).

Sistēmas ar augstu risku nav aizliegtas, taču tām ir potenciāli augsts risks attiecībā uz drošību, veselību un pamattiesībām. Šādām sistēmām tiek piemērotas stingras prasības. Augsta riska jomas var ietvert biometrijas sistēmas, izglītības sistēmas, kas vērtē eksāmenu rezultātus, nodarbinātības risinājumus, kas atlasa darbiniekus, un tiesvedības sistēmas. Augsta riska sistēmām ir jāatbilst tādām prasībām kā precizitāte, datu kvalitāte, jāveic sistēmu testēšana un pārbaudes, lai novērstu to noslieces uz diskrimināciju, kā arī jānodrošina caurskatāmība un izskaidrojamība, kas prasa atbilstošu dokumentāciju. Visbeidzot, jāsaglabā cilvēku iesaiste (virsvadības iespēja).

MI Akts paredz arī ievērojamus naudas sodus par pārkāpumiem. Soda apmērs atkarīgs no pārkāpuma veida un smaguma, taču par MI prakses aizlieguma pārkāpumiem var sasniegt līdz pat 35 miljoniem eiro vai 7% no globālā apgrozījuma (uzņēmumam), par neatbilstību kādam noteikumam — līdz 15 miljoniem eiro vai 3% no apgrozījuma, par nepareizas, nepilnīgas vai maldinošas informācijas sniegšanu — līdz 7,5 miljoniem eiro vai 1% no apgrozījuma.

Galvenie riski MI izmantošanā

MI tehnoloģijas spēj apstrādāt un analizēt milzīgus datu apjomus, kas rada ievērojamus riskus datu aizsardzības un privātuma jomā. Viens no galvenajiem riskiem ir datu noplūde un nesankcionēta piekļuve. MI sistēmas bieži apstrādā sensitīvus datus, piemēram, personu identifikācijas informāciju, finanšu datus un veselības ierakstus, un, ja šie dati netiek pienācīgi aizsargāti, tie var nonākt nepiederošu personu rokās, radot nopietnas sekas, tostarp identitātes zādzību un finansiālus zaudējumus. Pat ja tiek veikta datu anonimizācija, MI tehnoloģijas var būt pietiekami jaudīgas, lai no jauna identificētu personas, apvienojot anonimizētus datus ar citiem datu avotiem.

Vēl viens risks ir piekrišanas un paredzamības trūkums. MI sistēmas izmanto no dažādiem avotiem iegūtus datus, tāpēc nereti datu subjekti nav informēti par to, kā viņu dati tiek izmantoti, un nav devuši skaidru piekrišanu šādai izmantošanai, radot problēmas ar paredzamību un datu subjektu tiesību ievērošanu.

Arī datu glabāšanas un dzēšanas problēmas rada riskus, jo ilgstoša datu glabāšana var novest pie datu izmantošanas neparedzētiem mērķiem vai drošības pārkāpumiem, savukārt datu dzēšana no sarežģītām MI sistēmām var būt apgrūtināta, apdraudot datu subjekta tiesības uz aizmirstību. Datu noplūdes un privātuma pārkāpumi var radīt nopietnus kaitējumus uzņēmuma reputācijai, privātuma pārkāpumus un juridiskas sekas ar ievērojamiem naudas sodiem, kā arī tiesvedībām. Lai mazinātu šos riskus, nepieciešams ieviest stingras datu aizsardzības politikas un procedūras, regulāri pārbaudīt drošības pasākumus un nodrošināt paredzamību un piekrišanu datu subjektu datu apstrādei.

Autortiesību izaicinājumi

MI sistēmas, piemēram, lieli valodu modeļi, iegūst informāciju no dažādiem avotiem, tostarp grāmatām, laikrakstiem un tīmekļvietnēm. Līdz ar to, izmantojot MI ģenerētu saturu, var rasties jautājumi saistībā ar autortiesībām. MI radītais saturs ir atvasināts no iepriekš radīta satura, un ne vienmēr ir skaidrs, kad šāda izmantošana pārkāpj autortiesības. Lietotāji var neapzināti pārkāpt autortiesības, publicējot MI ģenerētu saturu, kas pārāk līdzinās jau esošiem darbiem. Atšķirībā no dažiem rīkiem, kas norāda informācijas avotus, lielie valodu modeļi kā ChatGPT to parasti nedara. Juridiskie riski šajā jomā ietver tiesvedību un sodus, ja MI izmanto autortiesību aizsargātus darbus bez atļaujas, kā arī licencēšanas prasības gan MI izstrādātājiem, gan lietotājiem.

Būtisks jautājums ir arī MI radītu objektu aizsardzība ar autortiesībām. Saskaņā ar pašreizējo autortiesību regulējumu, par autoru var tikt atzīta tikai fiziska persona, kuras radošās darbības rezultātā darbs ir radies. Tādējādi MI pats par sevi nevar tikt atzīts par autora tiesību subjektu. Tomēr jautājums par autortiesību aizsardzību darbiem, kas radīti ar MI palīdzību, ir sarežģītāks. Ja autors pietiekami kontrolē MI radīšanas procesu, piemēram, atlasot apmācības datus vai modificējot iegūtos rezultātus, tad gala darbs varētu tikt aizsargāts ar autortiesībām. Tiesu prakse šajā jomā vēl tikai attīstās, bet ir gadījumi, kad tiesa ir atzinusi autortiesības uz rakstu, kas sagatavots ar MI palīdzību, ņemot vērā lietotāja ieguldījumu datu analīzē un atlases procesā.

Ja autors pietiekami kontrolē MI radīšanas procesu, piemēram, atlasot apmācības datus vai modificējot iegūtos rezultātus, tad gala darbs varētu tikt aizsargāts ar autortiesībām.
Ilustrācija: © Uncanny Valley — stock.adobe.com

Konfidencialitāte, personu dati, kiberdrošība

Izmantojot MI risinājumus ikdienas darbā, rodas jautājumi par klientu informācijas apstrādes ierobežojumiem un konfidencialitātes nodrošināšanu. Daudzi uzņēmumi ir izstrādājuši iekšējos noteikumus par MI lietošanu, nosakot, kāda informācija ir atļauta un kāda ir aizliegta ievadīšanai MI sistēmās. Piemēram, var tikt aizliegta klientu datu un sensitīvas informācijas ievade, apstrāde un MI izmantošana darba pienākumos, kas saistīti ar auditu vai citām profesionālām pārbaudēm, kur nepieciešams neatkarīga zvērināta revidenta vērtējums. Tāpat ir svarīgi nodrošināt, ka darbiniekiem, kuri izmanto MI, ir atbilstoša kompetence un tiek saglabāta cilvēka pārraudzība pār MI radītajiem rezultātiem, tos kritiski izvērtējot un labojot nepieciešamības gadījumā.

MI piedāvā ievērojamas priekšrocības drošības un kiberdrošības jomā, piemēram, ātrāku draudu atklāšanu un reaģēšanu, spēju analizēt lielus datu apjomus reālā laikā un automātiski identificēt neparastas aktivitātes. Tomēr MI izmantošana kiberdrošībā rada arī savus riskus, piemēram, nepareizi pozitīvus vai negatīvus rezultātus, kas var novest pie draudu ignorēšanas vai nepareizas reakcijas. MI efektivitāte ir atkarīga no datu kvalitātes, tāpēc neprecīzi vai nepilnīgi dati var radīt kļūdainus secinājumus. Turklāt arī kiberuzbrukumu mērķis var būt manipulēt ar MI sistēmām, lai panāktu sev vēlamus rezultātus un apietu drošības pasākumus. Pārmērīga atkarība no MI var arī samazināt cilvēka iesaisti un spēju pieņemt lēmumus kritiskās situācijās.

Kā mazināt juridiskos riskus?

Lai mazinātu un pārvaldītu ar MI izmantošanu saistītos juridiskos riskus, ir jāievieš vairāki pasākumi. Pirmkārt, nepieciešama stingra datu piekļuves kontrole, lai nodrošinātu, ka MI sistēmās tiek ievadīti tikai atbilstoši un droši dati. Datu šifrēšana ir vēl viens būtisks pasākums datu noplūdes novēršanai. Uzņēmumiem ir jāveic regulāras drošības pārbaudes un jāspēj analizēt MI sistēmu darbību. Svarīgi ir arī nodrošināt pārredzamību datu apstrādē, iegūt atbilstošu piekrišanu datu izmantošanai un ieviest efektīvas datu dzēšanas procedūras. Attiecībā uz intelektuālā īpašuma riskiem, ir jāievēro autortiesību regulējums, jāpārbauda MI ģenerētais saturs un nepieciešamības gadījumā jānorāda informācijas avoti vai jāsaņem atbilstošas licences. Konfidencialitātes nodrošināšanai jāizstrādā iekšējie noteikumi par MI lietošanu un jānodrošina cilvēka pārraudzība pār MI radītajiem rezultātiem.

Mākslīgais intelekts piedāvā milzīgu potenciālu, taču tā ieviešana ir rūpīgi jāapsver, ņemot vērā visus iespējamos juridiskos riskus. Apzinoties normatīvo ietvaru, aizliegtos un augsta riska lietojumus, kā arī datu aizsardzības, intelektuālā īpašuma, konfidencialitātes un drošības jautājumus, uzņēmumi un privātpersonas var veidot atbildīgu un drošu pieeju MI tehnoloģiju izmantošanai, izvairoties no potenciālām nepatikšanām nākotnē.

Mākslīgā intelekta akts stājās spēkā 2024. gada 1. augustā, bet vispārīgi tas būs piemērojams, sākot no 2026. gada 2. augusta. Izņēmumi:
  • I nodaļu «Vispārīgiem noteikumi — Priekšmets, Darbības joma, Definīcija un MI pratība» un II nodaļu «Aizliegtā MI prakse» piemēro no 2025. gada 2. februāra.
  • III nodaļas «Augsta riska MI sistēmas», 4. iedaļu «Paziņojošās iestādes un paziņotās struktūras», V nodaļu «Vispārīgā lietojuma MI modeļi», VII nodaļu «Pārvaldība» un XII nodaļu «Sodi», un 78. pantu «Konfidencialitāte» piemēro no 2025. gada 2. augusta, izņemot 101. pantu «Vispārīga lietojuma MI modeļu nodrošinātājiem piemērojami naudas sodi».
  • 6. panta «Noteikumi klasificēšanai par augsta riska MI sistēmām» 1. punktu un attiecīgos MI akta paredzētos pienākumus piemēro no 2027. gada 2. augusta.
Attiecībā uz MI sistēmām un vispārēja lietojuma MI modeļiem, kas jau ir laisti tirgū, noteikti šādi termiņu:
  • lielapjoma IT sistēmu sastāvdaļām, kas laistas pirms 2027. gada 2. augusta, atbilstību jāpanāk līdz 2030. gada 31. decembrim;
  • uz augsta riska MI sistēmām, kas laistas pirms 2026. gada 2. augusta, MI akts attiecas tika tad, ja notikušas būtiskas izmaiņas to uzbūvē;
  • augsta riska MI sistēmām publisko iestāžu lietošanai atbilstību jāpanāk līdz 2030. gada 2. augustam;
  • vispārīga lietojuma MI modeļiem, kas laisti pirms 2025. gada 2. augusta, atbilstību jāpanāk līdz 2027. gada 2. augustam.

Publicēts žurnāla “Bilance” 2025. gada jūnija (522.) numurā.

Lasiet arī: