Riigiasutused kasutavad teenuste osutamiseks ja andmetöötluseks üha sagedamini tehisintellekti ja algoritmilisi süsteeme. Kahe värskelt valminud raporti kohaselt ilmnes, et algoritme loovate ekspertide teadlikkus diskrimineerimisriskidest on madal ning nende riskide maandamiseks puuduvad selged meetmed.
Võrdõigusvolinik: tehisintellekti kasutamine võib kaasa tuua diskrimineerimise
«Tehisintellekti kasutamine avalikus sektoris võimaldab pakkuda mugavamaid ja tõhusamaid teenuseid, kuid samas peame olema valvsad, et need lahendused ei süvendaks ebavõrdsust ega tooks kaasa uusi diskrimineerimise vorme,» ütles võrdõigusvolinik Christian Veske.
Raportid valmisid EquiTech projekti raames, mille eesmärk on edendada võrdsust ühiskonnas töötades välja juhised diskrimineerimise ja kallutatuse vähendamiseks automatiseeritud otsustussüsteemides ning tõstes teadlikkust nendest riskidest.
Esimene raport analüüsis Eesti ja Leedu õigussüsteemi. Analüüs tõi esile, et nii Eesti kui ka Leedu õigus sisaldab üldiseid võrdsuspõhimõtteid, mida tuleb järgida ka algoritmide puhul. Algoritmiliste süsteemide eripäradele ei ole siiski piisavalt tähelepanu pööratud – vaja oleks suuremat läbipaistvust selle osas, kuidas algoritmide otsuseid tehakse, samuti selgemat vastutuse jagamist ning järelevalvemehhanismide ja riskijuhtimisreeglite tugevdamist.
Teine raport kaardistas Bürokrati, OTTi ja ABC Värava eest vastutajate teadlikkust algoritmipõhise diskrimineerimise riskidest ning sellest, kuidas riske tuvastada ja ära hoida. Selgus, et ekspertide teadlikkus algoritmiliste kallutatuse riskidest on madal ning puuduvad selged juhised riskide tuvastamiseks ja maandamiseks. Raport rõhutas vajadust läbipaistvuse järele ning andis soovitused riskijuhtimise meetmete väljatöötamiseks.
EquiTech projekti järgmise sammuna töötatakse välja tööriistakast riigiasutustele ja IT-arendajatele, mille kasutamine aitab tagada, et algoritmilised süsteemid kedagi ei diskrimineeriks. Tööriistakast sisaldab juhendmaterjali, kontrollküsimustikku ja e-koolitust, mis aitavad vähendada algoritmiliste süsteemidega seotud riske.