Ieva Siliņa: Irēnas Barkānes izdoto monogrāfiju "Cilvēktiesību nozīme mākslīgā intelekta laikmetā" Latvijas Zinātņu akadēmija nosaukusi par vienu no 2023. gada nozīmīgākajiem zinātnes sasniegumiem. Irēna, lūdzu, pastāsti, par ko ir šī monogrāfija?
Irēna Barkāne: Šajā monogrāfijā es pētīju jautājumus par mākslīgā intelekta regulējumu un par cilvēktiesību jautājumiem. Kā mākslīgais intelekts ietekmē plašu cilvēktiesību loku, sākot no tiesībām uz privātumu, datu aizsardzību līdz pat citām cilvēktiesībām, piemēram, cilvēka cieņu, diskriminācijas aizlieguma principu, vārda izteiksmes brīvību, kā arī šo tiesību plašāku ietekmi uz demokrātiju un sabiedrību kopumā.
Kādēļ šī tēma šobrīd tik aktuāla?
Mākslīgais intelekts attīstās zibenīgā ātrumā, un ļoti ātri attīstās arī mākslīgā intelekta tehnoloģijas un tehnoloģiju regulējums.
Šis regulējums ir ļoti nepieciešams, jo situāciju, kurā nepastāv juridiski saistošs regulējums, kas nosaka to, kā drīkst izmantot mākslīgā intelekta sistēmas, var salīdzināt ar situāciju, kāda būtu, ja, piemēram, nepastāvētu ceļu satiksmes noteikumi un sodi par to pārkāpšanu.
Visi varētu braukt, cik ātri vien gribētu, un neievērot sarkanās gaismas, braukt nepiesprādzējušies, kā rezultātā būtu daudz avāriju un cietušo. Līdzīgi ir arī tad, ja nepastāv mākslīgā intelekta regulējums. To var salīdzināt ar tādiem kā mežonīgajiem rietumiem. Šo situāciju šobrīd tiek mēģināts uzlabot, nosakot juridiski saistošu regulējumu, kas paredz, ko drīkst darīt ar mākslīgā intelekta sistēmām, kādā veidā tās izmantot atbildīgi un veicināt to uzticamību.
Mākslīgajam intelektam ienākot mūsu pasaulē, kādas iespējas tas paver un kādi riski rodas?
Ieguvumi ir, piemēram, veselības aprūpē, izglītībā, nodarbinātībā, transporta jomā, tiesībaizsardzības jomā, bet tajā pašā laikā mākslīgā intelekta sistēmas, piemēram, ģeneratīvais mākslīgais intelekts, kas rada jaunu saturu, valkājamās ierīces, kas analizē mūsu veselību un ieradumus, mākslīgā intelektā balstītas lēmumu pieņemšanas sistēmas, kas var būtiski ietekmēt mūsu dzīvi, rada arī daudzus izaicinājumus un daudzas problēmas, kas ir jārisina. Ja mēs skatāmies uz šiem izaicinājumiem, tie ir ļoti dažādi. Piemēram, viens no lielākajiem izaicinājumiem ir aizspriedumi. Jautājums ir, kā nodrošināt, lai šīs mākslīgā intelekta sistēmas būtu godīgas un objektīvas.
Mākslīgā intelekta sistēmas būtībā ir tik labas, cik labi ir dati, uz kuriem tās ir apmācītas.
Ja dati ir neobjektīvi, tad arī sistēmas darbosies negodīgi un neobjektīvi, un tad tās var radīt nopietnas sekas, īpaši tādās jomās kā veselības aprūpe un finanses, kur šie lēmumi var ietekmēt personu dzīvi.
Vai vari minēt kādu piemēru?
Kā piemēru varu minēt Nīderlandi, kur 2019. gadā tika mēģināts regulēt bērna kopšanas pabalsta sadali, ieviešot algoritmu, kas vērtēja bērna kopšanas pabalstu izkrāpšanas riskus. Algoritms spēja pats arī mācīties, kā rezultātā desmitiem tūkstošu ģimeņu tika aprēķinātas soda naudas. Tas izraisīja lielu politisku skandālu, kā rezultātā valdība kolektīvi atkāpās 2021. gada sākumā. Vēl viena joma, kurā mākslīgā intelekta sistēmām ir nozīmīga ietekme, ir māksla, proti, mākslīgā intelekta sistēmas var tikt izmantotas jaunu un novatorisku mākslas darbu radīšanai. Lai gan tas var radīt dažādus interesantus mākslas darbus, tas arī rada jautājumus par to, kāda ir mākslinieka loma un kā tas var ietekmēt radošo procesu. Vēl viens liels mākslīgā intelekta sistēmu izaicinājums ir mākslīgā intelekta izmantošana, lai manipulētu ar audio un video ierakstiem, lai izveidotu viltus saturu. Tam var būt nopietnas sekas, jo īpaši politikā, kur viltojumus var izmantot, lai izplatītu nepatiesu informāciju. Ir vēl daudzi citi piemēri, piemēram, pašbraucošās automašīnas, kas rada drošības un atbildības jautājumus, un manā grāmatā aplūkotās novērošanas tehnoloģijas. Piemēram, mākslīgais intelekts tiek izmantots arī sapņu atšifrēšanai, kas ietver smadzeņu darbības analīzi, lai noteiktu, par ko cilvēki sapņo.
Tas ir radījis ļoti daudz jautājumu un bažu par privātumu un personas datu aizsardzību, līdz ar to ir jādomā, kā šīs tehnoloģijas regulēt, lai tās nesāktu regulēt mūs.
Kā mākslīgo intelektu ar tiesiskiem instrumentiem savaldīt, lai tas būtu savietojams gan ar mūsu konstitūciju, gan cilvēka pamattiesībām un Eiropas tiesībām?
Šobrīd Eiropas līmenī notiek intensīvs darbs pie mākslīgā intelekta regulējuma izstrādes, lai nodrošinātu šo sistēmu atbildīgu izmantošanu un lai novērstu apdraudējumu cilvēktiesībām, demokrātijai un tiesiskumam. 2024. gada martā tika pieņemts Eiropas Savienības Mākslīgā intelekta akts, kas ir pirmais mākslīgā intelekta tiesiskais regulējums. Tas nosaka jaunas prasības mākslīgā intelekta aizliegumu sistēmām, kas pārkāpj cilvēktiesības un Eiropas vērtības. Šis jaunais regulējums ir stājies spēkā jūnijā un būs piemērojams visās Eiropas Savienības dalībvalstīs pēc diviem gadiem. Līdzās šim regulējumam arī Eiropas Padome šobrīd izstrādā pirmo starptautisko līgumu par mākslīgo intelektu. 2023. gada martā Eiropas Padomes Mākslīgā intelekta komiteja pabeidza darbu pie konvencijas par mākslīgo intelektu, cilvēktiesībam, demokrātiju un tiesiskumu.
Nav arī noslēpums, ka daudzi autoritāri režīmi izmanto mākslīgā intelekta sistēmas, lai kontrolētu un masveidā uzraudzītu iedzīvotājus un ierobežotu pārvietošanās brīvību. Kā tas notiek?
Jā, šeit visspilgtākais piemērs ir Ķīna. Ķīnā pastāv tā saucamā sociālā kredīta sistēma, kuras ietvaros tiek piešķirti punkti par dažādiem pārkāpumiem, piemēram, skaļas mūzikas klausīšanos, smēķēšanu neatļautās vietās, un par to personām tiek atņemti dažādi labumi.
Eksperti atzīst, ka šāda profilēšana apdraud demokrātiju. Kā mēs varam sevi pasargāt?
Mākslīgā intelekta regulējumā ir nepieciešamas noteiktas sarkanās līnijas jeb aizliegumi tādai mākslīgā intelekta sistēmu izmantošanai, kas ir pretrunā ar cilvēktiesībām, Piemēram, UNESCO rekomendācijas par mākslīgā intelekta ētiku nosaka, ka mākslīgā intelekta sistēmas nedrīkst izmantot sociālai vērtēšanai un masveida novērošanas nolūkos. Arī jaunais Eiropas Savienības Mākslīgā intelekta akts paredz daudzus aizliegumus tādai mākslīgā intelekta sistēmu izmantošanas praksei, kas ir pretrunā ar mūsu pamattiesībām un Eiropas vērtībām. Šis jaunais regulējums aizliedz izmantot, piemēram, mākslīgā intelekta sistēmas, kas manipulē ar cilvēku uzvedību un ļaunprātīgi izmanto neaizsargātus lietotājus, biometriskās kategorizācijas sistēmas un emociju uztveršanas sistēmas, lai gan tikai darbavietās un izglītības iestādēs. Tāpat ir aizliegta nemērķēta sejas attēlu vai videomateriālu vākšana no interneta, kas ir iegūta ar videonovērošanas sistēmu palīdzību, lai veidotu plašas datubāzes. Ir aizliegta arī sociālā vērtēšana, un tiesību aizsardzības iestādēm ir aizliegts izmantot reāllaika biometriskās identifikācijas sistēmas. Tajā pašā laikā, protams, šajā regulējumā ir paredzēti arī dažādi izņēmumi un ierobežojumi, līdz ar to ir svarīgi, kādā veidā šie jaunie noteikumi tiks piemēroti praksē.
Varbūt pats cilvēks var ko darīt, lai pasargātu savus un savu bērnu datus?
Vecākiem būtu īpaši jāpievērš uzmanība tam, ko bērns dara internetā, cik daudz tas izmanto internetu, kādas lietotnes un cik ilgi. Ir arī dažādas lietotnes, kas ļauj viegli sekot līdzi un redzēt, ko bērni dara internetā. Būtu jāizvairās internetā atklāt personisku informāciju un publicēt bildes sociālajos medijos. Tikko tās tiek publicētas, mums arī zūd ietekme par to, kādiem nolūkiem tās varētu tikt izmantotas. Vairāk par drošību internetā var uzzināt no materiāliem, ko ir izstrādājis Latvijas Drošāka interneta centrs, kas izglīto un informē sabiedrību par drošības jautājumiem internetā. Centra mājaslapā var atrast dažādus ieteikumus un informāciju par šiem jautājumiem.