0,00 EUR

Grozs ir tukšs.

0,00 EUR

Grozs ir tukšs.

E-BILANCES JURIDISKIE PADOMIBJP RAKSTINo mākslīgā intelekta vairs nevaram izvairīties

No mākslīgā intelekta vairs nevaram izvairīties

Ar Stellu Kaprāni sarunājas Vineta Vizule

Mākslīgais intelekts kļuvis par ikdienas dzīves sastāvdaļu un ietekmē mūsu izvēles pat tad, ja to neapzināmies. Pagaidām vēl lielākoties spējam atšķirt, kad ar mums sarunājas cilvēks, kad – virtuālie asistenti jeb čatboti, ko valodnieki iesaka dēvēt par tērzēšanas robotiem. Nereti, balstoties uz to ieteikumiem, izdarām noteiktas darbības, kas var gan novest pie risinājuma, gan arī kļūdaina lēmuma. Arī nodokļu iekasēšanas jomā arvien vairāk esam sākuši paļauties uz automatizētu sistēmu darbības rezultātā pieņemtu lēmumu. No kā prasīt atbildību un pat zaudējumu piedziņu robotizētās sistēmas kļūdas gadījumā? Vai mākslīgo intelektu var uzskatīt…


Lai turpinātu lasīt šo rakstu,
nepieciešams iegādāties abonementu

E-BILANCES JURIDISKIE PADOMI par 12 € / mēnesī



ABONĒT


Izmēģini 30 dienas tikai par 1€ vai pērc komplektu esošā abonementa papildināšanai

Jau ir E-BJP abonements?

Pieslēdzies

Pierakstīties
Paziņot par
0 Komentāri
Iekļautās atsauksmes
Skatīt visus komentārus
Stella Kaprāne,SIA ZAB NJORD juriste
Stella Kaprāne, SIA ZAB NJORD juriste
Foto: Aivars Siliņš

Mākslīgais intelekts kļuvis par ikdienas dzīves sastāvdaļu un ietekmē mūsu izvēles pat tad, ja to neapzināmies. Pagaidām vēl lielākoties spējam atšķirt, kad ar mums sarunājas cilvēks, kad – virtuālie asistenti jeb čatboti, ko valodnieki iesaka dēvēt par tērzēšanas robotiem. Nereti, balstoties uz to ieteikumiem, izdarām noteiktas darbības, kas var gan novest pie risinājuma, gan arī kļūdaina lēmuma. Arī nodokļu iekasēšanas jomā arvien vairāk esam sākuši paļauties uz automatizētu sistēmu darbības rezultātā pieņemtu lēmumu. No kā prasīt atbildību un pat zaudējumu piedziņu robotizētās sistēmas kļūdas gadījumā? Vai mākslīgo intelektu var uzskatīt par autonomu tiesību subjektu? Par šiem aktuālajiem jautājumiem saruna ar Stellu Kaprāni, SIA ZAB NJORD juristi un vairāku augstskolu vieslektori.

Kas īsti ir mākslīgais intelekts, ko ar to saprot? Daudziem aizvien tas asociējas ar robotiem, kādus rāda zinātniskās fantastikas filmās. Digitalizācijas uzplaukuma laikā sākam iepazīt Chat GPT, rodas priekšstats, ka tā iespējas ir ne tikai ātri atrast nepieciešamo informāciju, bet arī ģenerēt mākslas darbus, ko līdz šim spēja tikai cilvēks. 

Reizēm to, ko mūsdienās saprotam ar mākslīgo intelektu, mēdz interpretēt ļoti plaši. Tiek uzskatīts, ka jēdziens „mākslīgais intelekts” radās pagājušā gadsimta piecdesmitajos gados Dartmutas vasaras skolas seminārā. Tajā daudz sprieda par mašīnmācīšanos, kā rezultātā tiek gan apstrādāta esošā, gan ģenerēta jauna informācija. Mašīnas sāka veiksmīgi spēlēt dambreti, risināja sarežģītus matemātikas uzdevumus, ierunāja tekstus angļu valodā. 

Stella Kaprāne, SIA ZAB NJORD juriste
Stella Kaprāne,
SIA ZAB NJORD juriste
Foto: Aivars Siliņš

Jau pirms tam britu matemātiķis un datorzinātnieks Alans Tjūrings izstrādāja kritērijus, kā var noteikt, ka konkrēto informāciju radījusi speciāla ierīce vai datorprogramma, nevis cilvēks. Vēsturiski notikuši dažāda veida eksperimenti, pierādot, ka mākslīgā intelekta botu starpā ir iespējamas arī diskusijas, bet, jāņem vērā, ka līdz pat šai dienai pilnvērtīgs mākslīgi radīts intelekts nepastāv. Mašīnas aizvien vēl nespēj patstāvīgi pieņemt lēmumus bez cilvēku iesaistes, tāpēc arī nevaram runāt par tādu mākslīgo intelektu, kuru nevarētu atšķirt no cilvēka intelekta. To svarīgi ņemt vērā, risinot juridiskas problēmas, kas rodas vai var rasties saistībā ar pašreizējā attīstības līmenī esošā mākslīgā intelekta pielietojumu.

Ja tiek minētas mākslīgā intelekta tiesības, tad, saprotams, nedomājam, ka šīs tiesības piemīt pašai mašīnai vai programmai. Kurš būs atbildīgs, ja robota darbības dēļ cietīs cilvēks vai tiks sabojāts īpašums? Tāpat nav skaidrs, vai Chat GPT radītais vizuālais darbs ir autordarbs vai plaģiāts, vai to var publicēt, atsaucoties tikai uz Chat GPT.

Mākslīgā intelekta pielietošana var radīt jautājumus par intelektuālā īpašuma tiesībām, piemēram, tēlotājmākslas, literatūras, muzikālajiem darbiem, kas ir aizsargājami objekti. Vai tieši pretēji – rodas jautājums, vai mākslīgā intelekta izmantošanas rezultātā tapušos darbus var uzskatīt par patstāvīgu autortiesību un citu intelektuālo tiesību objektu. Noris diskusijas, vai mākslīgā intelekta gadījumā iztrūkst šī autorības momenta, jo programmatūra tikai apstrādā citu radītos autordarbus. Pastāv arī viedoklis, ka mākslīgā intelekta izmantošanas gadījumā šāds autordarbs tiek radīts. Taču tad būtu jānoskaidro, kam šis autordarbs pieder, ņemot vērā, ka programmētāji izstrādā tikai algoritmus, izmantojot jau iepriekš pastāvošu informāciju par citu autoru radītiem literārajiem, mūzikas un citu mākslas žanru objektiem. Jautājums arī, vai šīs īpašumtiesības varētu piederēt mākslīgā intelekta sistēmu īpašniekiem vai izmantotājiem. Patlaban par šiem jautājumiem izskan dažādi viedokļi, tostarp, vai mākslīgā intelekta darbības rezultātā pastāv šis individuālais radošuma jeb autorības elements, vai tomēr nē. Protams, ir variants, ka šādas īpašumtiesības par konkrēto objektu varētu piešķirt sistēmas īpašniekam vai lietotājam, ja tas ir noteikts konkrētajā līgumā par sistēmas izmantošanu. 

Vai tie ir vienīgie tiesību jautājumi, kas patlaban jārisina juristiem?
Stella Kaprāne, SIA ZAB NJORD juriste
Stella Kaprāne,
SIA ZAB NJORD juriste
Foto: Aivars Siliņš

Ir vēl daudzi citi aspekti, kas skatāmi caur tiesību prizmu, piemēram, kas būtu vainojams mākslīgā intelekta radītā kaitējuma gadījumā. Arī krimināltiesiskajā aspektā – ko vainosim, ja persona, piemēram, būs atbildīga par ar mākslīgā intelektu vadītās automašīnas radītu autoavāriju? Ņemot vērā pašreizējo tiesisko regulējumu, par ceļu satiksmes negadījuma izraisīšanu atbildība jāuzņemas tam cilvēkam, kurš bijis pie auto stūres. Arī Teslas automašīnu, kas aprīkota ar mākslīgo intelektu, ražotāji ir noteikuši, ka, vadot šādu auto, cilvēkam ir jāseko līdzi tā sistēmu darbībai un nepieciešamības gadījumā attiecīgi jārīkojas, lai novērstu iespējamo negadījumu. 

Tiesu praksē ir piemērs, kad ar šādu auto tā sistēmas nepilnību vai kļūdu dēļ autoavārijas rezultātā gāja bojā cilvēks. Radās jautājums, ko šādā gadījumā saukt pie kriminālatbildības – autovadītāju vai sistēmas radītāju? Konkrētajā gadījumā, kas tika izskatīts ASV tiesu sistēmā, pie krimināl­atbildības tika saukta auto vadītāja. Tomēr paliek jautājums, kā vērtēt šādas situācijas, ja, piemēram, sistēmas radītāja kļūdas dēļ autovadītājam nav pat objektīvu iespēju konkrētajā brīdī kļūdu novērst. Tāpat var būt arī nejaušības kļūdas, kādas var pastāvēt gan cilvēka rīcībā, gan arī programmatūru darbībā. Attiecīgi izšķirams jautājums, kad pie atbildības būtu saucams auto ražotājs, un vai gadījumā, kad kļūda ir notikusi mākslīgā intelekta pusē, ētiski ir vainot tā lietotāju. Tāpat būtu jāvērtē civiltiesiskie apstākļi, piemēram, kas ir atbildīgs par kļūdas dēļ radītajām sekām un sedz zaudējumus.

Vai par to nav domāts laikus – brīdī, kad šādas automašīnas tika uzkonstruētas?

Skatoties uz mākslīgā intelekta atbildības jautājumiem, jāņem vērā, ka gan ASV, gan lielākajā daļā citu pasaules valstu praksē šie jautājumi līdz šim nav tikuši vispārīgi atrunāti. Līdz ar to secināms, ka mākslīgajam intelektam patlaban nav autonoma subjekta tiesību statusa. Ņemot vērā mākslīgā intelekta pašreizējo attīstības līmeni, tas nespēj pilnībā patstāvīgi pieņemt atbildīgus lēmumus. Ja arī tiktu piešķirts šāds autonoma tiesību subjekta statuss, tad būtu jāvērtē, kāda ir alternatīva – vai to var pielīdzināt uzņēmumam – komercsabiedrībai, ko pārstāv tās valdes locekļi vai speciāli atbildīga persona. Vai šim nosacīti autonomajam objektam var piešķirt arī kādu īpašumu, kura ietvaros tas var atbildēt par savu rīcību? Nākotnē, sistēmām attīstoties, arī šāda veida jautājumi varētu rasties. Praksē spilgts piemērs ir Saūda Arābijā, kur ar mākslīgo intelektu apveltītajam robotam Sofijai tika piešķirta valsts pilsonība. Tas gan galvenokārt bija saistīts ar reklāmas pasākumiem, lai piesaistītu uzņēmējus, taču radīja jautājumus par šī soļa juridiskajām sekām. Jāņem vērā, ka, mākslīgajam intelektam pilnveidojoties, tamlīdzīgi jautājumi varētu kļūt arvien aktuālāki.

Tātad robotu Sofiju varētu saukt pie atbildības, ja viņas dēļ kādam tiktu nodarīti zaudējumi. 
Stella Kaprāne, SIA ZAB NJORD juriste
Stella Kaprāne,
SIA ZAB NJORD juriste
Foto: Aivars Siliņš

Tomēr jāatzīst, ka Sofija ir izņēmuma gadījums. Kā jau minēju, mākslīgajam intelektam šāda autonomā subjekta statusa patlaban nav, tāpēc atbildības jautājumi saistāmi ar tā lietotāja vai īpašnieka atbildību. Sistēmu izstrādes un pilnveides statusā nosacīti atbildība varētu gulties arī uz programmētājiem, sistēmu izstrādātājiem. Tāpēc izšķirams neērtais jautājums par to, cik liela šai ķēdes posmā katram iesaistītajam ir bijusi ietekme, līdzīgi kā tas bija Maxima traģēdijas gadījumā, kad tika vērtēta būvniecības procesā iesaistīto rīcība. Taču, jo vairāk cilvēku ir šai ķēdē iesaistīti, jo grūtāk ir noteikt katra atbildības pakāpi un attiecīgi arī pierādīt katra vainu. Bet, attiecībā uz mākslīgā intelekta atbildības jēdzienu, piemēram, tādiem paaugstinātas bīstamības objektiem kā autonomi vadāmi transportlīdzekļi, būtu jāizstrādā speciāli apdrošināšanas noteikumi, kad pie atbildības saucams auto īpašnieks vai lietotājs, kad – ražotājs, it īpaši, ņemot vērā programmēšanas vai mašīnmācīšanās kļūdu iespējamību. Tas ir svarīgi, ņemot vērā cietušā intereses, ja personai vai tās īpašumam nodarītā kaitējuma rezultātā radīti zaudējumi. Tas pats attiecas arī uz rūpniecībā izmantojamām ar mākslīgo intelektu apveltītām iekārtām un tehnoloģijām, kā arī patērētāju vajadzībām radītiem produktiem. Tie var būt gan saimnieciski izmantojami nelieli ikdienas lietošanas rīki, gan ar paaugstinātu bīstamību apveltītas iekārtas, tāpēc arī atbildības līmenis varētu būt noteikts atšķirīgs. 

Vai tiešām nepastāv normatīvais regulējums, kurš pasargātu lietotājus no mākslīgā intelekta?

Eiropas Savienības ietvaros bijušas vairākas iniciatīvas, ir izstrādātas dažādas regulas attiecībā uz atbildības sadalījumu. Arī pašu dalībvalstu ietvaros jārīkojas, lai ietvertu šo konkrēto ES noteikto regulējumu nacionālajā līmenī. Bet, ņemot vērā digitalizācijas attīstību pasaulē, mākslīgā intelekta regulējumam jābūt noteiktam arī visas pasaules, ne tikai ES, ietvaros. Patlaban tiek risināti jautājumi, piemēram, par vienotu kriptovalūtas regulējumu pasaulē, domāju, ka nākamais solis būs arī attiecībā uz mākslīgo intelektu. Jo tikai nacionālo vai ES līmeņa regulējumu būs grūti pielietot, ja ar mākslīgā intelekta darbību tiešsaistē var saskarties jebkurā pasaules valstī. 

Noregulējums nepieciešams arī tāpēc, ka mākslīgā intelekta tiešsaistes sistēmas lielākoties izmanto lielās korporācijas, piemēram Meta, kas seko līdzi sociālā tīkla Facebook lietotāju uzvedībai. Līdz ar to var tik apdraudētas dažādas cilvēku pamattiesības, kā, piemēram, vārda brīvība. Ja arī jaunais regulējums tiks ieviests, tas būs vispārīgs. Daudz ko šai jomā noteiks tiesu prakse. Tāpat jāņem vērā, ka patērētājam būs ļoti grūti stāties pretī lielajām korporācijām, to uzņēmumu ķēdēm. Šiem uzņēmumiem noteikti būs arī pieejama kvalitatīvāka juridiskā palīdzība dažādu valstu jurisdikcijās, tāpēc tiesvedību jautājumi būs sarežģīti. 

Kas vēl no tiesiskā aspekta būtu jāņem vērā mākslīgā intelekta lietotājiem?

Ņemot vērā, ka mašīnmācības ceļā mākslīgais intelekts apgūst aizvien vairāk un vairāk informācijas, tiek izstrādāti jauni sistēmu algoritmi, kļūs arvien grūtāk pierādīt, ka konkrētā rīcība radusies noteiktas kļūdas dēļ. Personai, kura cietusi zaudējumus, būs grūtības pierādīšanas ceļā iegūt datus, kas apliecinātu sistēmas kļūdu. Otrkārt, radīsies situācijas, kad programmētāji un sistēmu izstrādātāji vairs nespēs paši izsekot līdzi šīm radītajām problēmu ķēdēm. Ja reiz pašā uzņēmumā nespēs atrast pierādījumus kļūmei savā sistēmā, tad personai no malas tas būs vēl neiespējamāk. Attiecīgi arī piedzīt zaudējumus būs daudz sarežģītāk. Protams, patērētāja gadījumā šī pierādīšana gulstas uz pakalpojuma sniedzēju, jo patērētājs šajās attiecībās ir neaizsargātākā puse.

Arī juridiskajām personām nebūs viegli pierādīt, ka zaudējumi iestājušies mākslīgā intelekta izmantošanas dēļ. 

Stella Kaprāne, SIA ZAB NJORD juriste
Stella Kaprāne,
SIA ZAB NJORD juriste
Foto: Aivars Siliņš

Jāņem vērā arī personas datu aizsardzības jautājumi, diskriminācijas jautājumi, kas var rasties, izmantojot mākslīgo intelektu, kā, piemēram, ja ar konkrētu mākslīgā intelekta sistēmu palīdzību tiek pieņemti lēmumi, apstrādājot personas datus. Var rasties personu grupas, uz kurām šīs sistēmas darbība vērtējama kā diskriminējoša. Anglijā, piemēram, bija gadījums, kad, atlasot sistēmā informāciju, augstskolā netika uzņemtas personas no nabadzīgākajiem valsts reģioniem. Tāpat var pastāvēt dzimumu diskriminācija, rasu diskriminācija. Attiecīgi sistēmu izstrādātājiem jāvērtē šie riski, taču vienlaikus var nonākt pretējā situācijā, kad šīm apdraudētākajām personu grupām tiek radīti pārlieku pozitīvi nosacījumi, salīdzinot ar pārējām grupām. 

Izklausās savādi, ka mašīna varētu kādu diskriminēt, jo tā jau nevērtē tik subjektīvi, kā to dara cilvēks, bet atlasa objektīvus faktus. Šķiet, ka tieši mākslīgais intelekts varētu palīdzēt izvairīties no šādām nelabvēlīgām sekām.

Runa ir par netiešo diskrimināciju, kas var rasties, izmantojot mākslīgo intelektu. Tāda, piemēram, var veidoties, ievadot noteiktus kritērijus darbinieku atlasei, teiksim, par stjuartiem aviosabiedrībā netiek pieņemti darbā cilvēki, kas ir īsāki par 1,60 m. Šīs atlases rezultātā var gadīties, ka sistēma pārsvarā atlasa vīriešus, jo sievietes lielākoties mēdz būt mazāka auguma nekā vīrieši. Līdz ar to iestājas netiešs dzimumu diskriminācijas risks. Ir, protams, situācijas, kad šāda atlase var būt pamatota, bet pilnībā uzticēt šādu uzdevumu tikai mākslīgajam intelektam var būt liels risks, jo pašreizējā attīstības stadijā, apstrādājot lielu informācijas apjomu, tas var neņemt vērā vēl daudzus citus būtiskus kritērijus.

Personāla atlases gadījumā ir dzirdēts, ka tad, ja tiek izmantoti dažādi tiešsaistes testi, kuru rezultātu apstrāde uzticēta datorsistēmai, strīdus situācijā ir jābūt tiesībām pārsūdzēt lēmumu reālam cilvēkam.

Katrā ziņā personas ir jāinformē, ja viņu datus apstrādā ar mākslīgā intelekta palīdzību, kā arī jānorāda, ka gala lēmumu var pārsūdzēt amatpersonai. Ja tas netiek nodrošināts, uzskatāms, ka lēmums attiecībā uz personu ir pieņemts nekorekti. 

Likuma „Par nodokļiem un nodevām” 24. pants ir papildināts ar 9.2 daļu, kurā ir noteiktas Valsts ieņēmumu dienestam (VID) tiesības likumā noteiktajos gadījumos VID administrētajiem nodokļu, nokavējuma naudas un soda naudas maksājumiem piešķirt un atteikt samaksas termiņa pagarinājumu, kā arī atcelt lēmumu par samaksas termiņa pagarinājuma piešķiršanu ar VID informācijas sistēmas sagatavotu lēmumu, pamatojoties tikai uz automātisku datu apstrādi. Kā vērtējat šādu situāciju, ar ko būs jāsastopas nodokļu maksātājiem?
Stella Kaprāne, SIA ZAB NJORD juriste
Stella Kaprāne,
SIA ZAB NJORD juriste
Foto: Aivars Siliņš

Attiecībā uz VID automātisku lēmumu pieņemšanu par nodokļu samaksas termiņu pagarināšanu vai atcelšanu, jāņem vērā, ka no vienas puses automātiskā datu apstrāde tiek ieviesta tajās jomās, kur ir jāapstrādā ļoti liels informācijas apjoms, bet pats lēmums, kas jāpieņem, ir nosacīti vienkāršs. Tātad ir noteikti daži kritēriji, kad ierēdnim, datus apstrādājot, nebūtu noteikta liela rīcības brīvība pieņemt konkrētus lēmumus, atkāpjoties no šiem kritērijiem. Tai pat laikā likumā paredzēts, ka VID publicē savā tīmekļvietnē informāciju par automatizētā lēmuma pieņemšanā izmantotajiem datiem, lēmuma pieņemšanas shēmu, tostarp par nodokļu maksātāja novērtējuma kritērijiem, un lēmuma tiesiskajām un faktiskajām sekām. Nodokļu maksātājam likumā arī paredzētas tiesības apstrīdēt VID pieņemtos lēmumus ģenerāldirektoram, bet, ja nodokļu maksātājs nepiekrīt VID ģenerāldirektora lēmumam, viņam ir tiesības to pārsūdzēt tiesā. Šie minētie ir salīdzinoši jauni likuma grozījumi, tāpēc jāvēro, kā tie tiks īstenoti dzīvē un kāda varētu veidoties ar tiem saistītā tiesu prakse.

Mākslīgo intelektu ļoti bieži izmanto mārketinga vajadzībām, it īpaši digitālā mārketinga risinājumos. Nereti tirdzniecības uzņēmumi piedāvājumu patērētājiem veido pēc tā, kādi ir viņu iepirkšanās paradumi un intereses. Reizēm šķiet, ka tirgotāji pircēju pazīst labāk nekā viņš pats sevi.

Uzskatāms piemērs ir gadījums ASV, kur lielveikalu ķēde izmantoja iedzīvotāju veikto pirkumu datu apstrādi un attiecīgi lojalitātes kartes programmas ietvaros piedāvāja atlaides nākamajiem pirkumiem. Nepilngadīgai meitenei, kura iepirkās kopā ar vecākiem, tika piedāvātas preces jaundzimušo aprūpei – autiņbiksītes u. tml. Vecāki par šāda veida piedāvājumu bija neizpratnē, jo tas netieši norādīja uz nepilngadīgās iespējamo grūtniecību. Atklājās, ka meitene savulaik bija pirkusi vairākus grūtniecības testus, līdz ar to lielveikals bija informētāks nekā nepilngadīgās vecāki.

Šis gadījums vēlreiz parāda, ka ļoti svarīgi ir izvērtēt to, kāda veida informācija par fiziskajām personām tiks iegūta un apstrādāta. Mašīnmācīšanas procesa uzlabošanai tiek izstrādāti jauni algoritmi, lai mākslīgais intelekts spētu ievērot datu aizsardzības regulējumu, kas jau pastāv ES ietvaros, kā arī novērstu iespēju, ka tiek vākta informācija, kas jau ietiecas personas privātās dzīves jomās.

Vai vispār ir iespējams atteikties no šādas datu, kas tiek veikta ar mākslīgā intelekta starpniecību, vākšanas un apstrādes?

Kā jau minēju, svarīgi ir informēt, ka šāda automatizēta datu apstrāde notiek ar mākslīgā intelekta palīdzību, līdzīgi kā tas ir, kad atveram tīmekļvietnes un mūs brīdina par personas datu apstrādi. Cilvēks, protams, var atteikties no datu apstrādes, bet tad, visticamāk, tiks atteikts sniegt konkrētos pakalpojumus, kas zināmā mērā atstumj personu no pārējās sabiedrības. No otras puses, tehnoloģijas attīstās un personām vairs nav izvēles iespēju palikt pilnībā nepamanītām.

Viena no nozarēm, kas liek lielas cerības uz mākslīgā intelekta attīstību, ir medicīna. Tas nolasa analīžu rezultātus un var izskaitļot iespējamo saslimšanu, noteikt individuālu ārstēšanas kursu. Taču tas arī var novest pie kļūdainiem secinājumiem, ja gala vārdu tomēr nesaka mediķis. Tāpat mākslīgajam intelektam diezin vai var uzticēt juridisku līgumu sastādīšanu konkrētās tiesiskās situācijās.
Stella Kaprāne, SIA ZAB NJORD juriste
Stella Kaprāne,
SIA ZAB NJORD juriste
Foto: Aivars Siliņš

Uzskatu, ka ārstniecībā izmantojamo metožu izvēlei, gala slēdziena paziņošanai tomēr vajadzētu būt ārsta atbildībai. Mākslīgā intelekta izmantošana var ietekmēt arī apdrošinātāja lēmumu par atlīdzības izmaksām. Iespējams, ka apdrošinātāji atteiktos slēgt līgumu, ja pacienta ārstēšanu pilnībā pārņemtu mākslīgais intelekts. Šos jautājumus ar laiku būs jārisina, it īpaši ar tām jomām, kur pastāv liels zaudējumu risks. Arī juridisko profesiju pārstāvjiem nāksies izvērtēt, cik daudz no sava darba var uzticēt veikt mākslīgajam intelektam, piemēram, atlasot tiesu prakses piemērus līdzīgu strīdu risināšanā. ASV bija gadījums, kad apkopotā informācija saturēja kļūdainus piemērus.

Arī studiju procesā ir izvērtējams, kā, piemēram izmantot Chat GPT sniegtās iespējas informācijas ieguvē. Tas būtu jāuzskata par rīku, nevis alternatīvu zināšanu apguves aizstāšanas veidu. Protams, ar šo sistēmu ir iespējams ģenerēt dažāda veida darbus, bet iegūtā informācija var būt nepilnīga vai pat kļūdaina. Lai strādātu ar mākslīgo intelektu, cilvēkam pašam ir jābūt pietiekami lielam zināšanu apjomam. Tai pat laikā nevar ignorēt tehnoloģiju attīstību, digitalizācijas tempus, kas vērojami visā pasaulē. Tiklīdz jauna sistēma ir radīta, ar to jāmācās sadzīvot, izvērtējot gan tās pozitīvo devumu, gan negatīvos aspektus un iespējamos zaudējumus. Mākslīgais intelekts tiek izmantots arī krāpnieciskos nolūkos, piekļūstot uzņēmuma datiem, tas spēj ģenerēt viltus informāciju. Tāpēc uzņēmumiem būtu ieteicams izstrādāt dažādas iekšējās politikas, tostarp informācijas uzglabāšanas drošībai, komercnoslēpuma aizsardzībai, lai minimizētu šāda veida negatīvu seku iestāšanos.

Publicēts žurnāla “Bilances Juridiskie Padomi” 2023. gada augusta (122.) numurā.