18.08.2020. Justiitsministeerium astus esimese sammu, leidmaks konkreetsem sisu tehisintellekti puudutavale seadusandlusele ning tagamaks tulevikus selliste süsteemide vastavus meie põhiseaduses olevatele väärtustele.
„Nii Eestis kui ka mujal maailmas püütakse järjest rohkem ülesandeid automatiseerida ning kasutada nende täitmiseks tehisintellekti. Paljude riikide kogemused on näidanud, et algoritmides võib olla vigu – otsused on olnud kallutatud või ekslikud,“ ütles justiitsministeeriumi õiguspoliitika asekantsler Kai Härmand.
Seetõttu on Euroopa Liit töötanud välja usaldusväärse tehisintellekti kasutamise põhimõtted ehk nn valge raamatu. Sellele, ning Eesti riiklikule tehisintellekti tegevuskavale 2019-2021 toetudes saadeti arvamuse avaldamiseks seaduseelnõu väljatöötamiskavatsus, mis puudutab kõrge riskiga algoritmilisi süsteeme, nii era- kui ka avalikus sektoris.
„Juba täna täidavad algoritmilised süsteemid ehk kratid mõningaid traditsiooniliselt inimese tehtavaid toiminguid andmetöötluses. Näiteks on jäetud krattide hooleks andmete kogumine, selekteerimine, prioritiseerimine ning selle põhjal soovituste andmine või lausa otsuste langetamine,“ loetles Härmand.
Suurimat ohukohta näebki ministeerium otsuste läbipaistmatuses. Tehisintellekti puhul ei suuda tänaste teadmiste pinnalt isegi algoritmi koodi kirjutanud informaatik selgitada otsuse põhjuseid, kuna tegemist on iseõppiva ja edasiareneva süsteemiga.
„Algoritmi antud hinnang või tehtud otsus võib avaldada olulist mõju põhiõigustele sõltumata sellest, kas tegemist on iseõppiva või inimese määratud algoritmiga. Õigusriigi ülesanne on olla ettenägelik ja läbi loodava seadusraamistiku ennetada põhiõiguste tõsiseid riiveid,“ sõnas ta.
Väljatöötamiskavatsuse järgi on krattide loojatel edaspidi kohustus tagada, et krati tehtavad toimingud on kooskõlas kehtiva õiguse ja põhiõigustega ning hoida ära olukorrad, kus isikuandmete töötlemisel võib kratt hakata inimesi mingil põhjusel diskrimineerima.
Samuti peab olema inimesele üldjuhul teada, kui teise inimese asemel suhtleb temaga, töötleb andmeid või teeb nende põhjal otsuse „kratt“. Teadmatus, et inimese suhtes üleüldse algoritmilist süsteemi kasutati, ei anna talle võimalust vajadusel oma õigusi kaitsta.
„Kindlasti soovime hoiduda üle reguleerimisest ja innovatsiooni põhjendamatust pidurdamisest. Seadusandja peab tegelema vaid selliste algoritmidega, mille kasutamine on põhiõigusi silmas pidades probleemne,“ toonitas Härmand.
Selleks eristab väljatöötamiskavatsus kõrge riskiga algoritmilisi süsteeme, mille loomisele ja kasutamisele on ettenähtud erisused. Avalikus sektoris peetakse selle all silmas peamiselt neid kratte, mis teevad profiilianalüüsi ja õiguslike tagajärgedega otsuseid. Erasektoris aga selliseid süsteeme, millel kasutusviisidel on õiguslikud või sellega samaväärselt olulised tagajärjed, märkimisväärse varalise või mittevaralise kahju oht; oht elule või tervisele või mille tagajärgi ei saa inimesed mõistlikkuse piires vältida.
Tagasisidet väljatöötamiskavatsusele ootab ministeerium septembri lõpuks.