„DI cirke lieka klausimas, kas laiko vadžias: žmonės ar
mašinos?
Nors DI reglamentas reikalauja, kad žmonės kontroliuotų DI
keliamą riziką, ekspertai ginčijasi, ar žmonės apskritai geba tai daryti. Ką
dabar gali padaryti politikos formuotojai ir mokslininkai?
Efektyvi žmogaus vykdoma DI sistemų priežiūra yra naudinga
trimis būdais: pirma, tai yra esminis DI sistemų atitikties DI reglamentui ir
etikos principams elementas. Antra, žmogaus vykdoma priežiūra pagerina Europos
rinkoje esančių DI sistemų kokybę. Trečia, žmogaus vykdoma priežiūra sukuria
vertę, nes jos veiksmingumui reikalingos investicijos į naujas technologijas,
paslaugas ir žmonių įgūdžius. Dabar mokslas ir politika turi kartu išnaudoti šį
inovacijų potencialą.
Tačiau pirmiausia: už mirtinos avarijos slypi pagrindinis
iššūkis saugiam ir patikimam DI naudojimui mūsų visuomenėje: kaip gali būti
sėkminga žmogaus vykdoma DI priežiūra?
Pietvakarių JAV 2018 m. įvyko avarija. 2018 m. įvyko
technologijų istorijos tragedija: išvengiama avarija lėmė pirmąją savaeigio
automobilio sukeltą mirtį. „Uber“ platforma testavo dirbtinio intelekto (DI)
valdomą „Volvo“ automobilį Finikso priemiestyje, Arizonoje, eisme, kai 49 metų
moteris, stūmusi dviratį per gatvę, buvo partrenkta šio automobilio.
Pasak JAV greitkelių patrulio ir teismo Arizonoje, už jos
mirtį nebuvo atsakingas nei „Uber“, nei DI, o žmogus. Savaeigiame automobilyje
važiavęs saugos vairuotojas turėjo įsikišti ir, atsižvelgiant į vidutinį
automobilio greitį, tikriausiai galėjo.
Tačiau užuot žiūrėjusi į kelią, ji savo išmaniajame telefone
transliavo televizijos laidos „The Voice“ epizodą. Nuobodulys stebint DI
kainavo žmogaus gyvybę.
Šis iššūkis tampa dar aktualesnis, nes DI sistemos vis
dažniau diegiamos jautriose srityse, tokiose kaip medicina, eismas ar sienų
kontrolė. Šiose srityse politikos formuotojai pasikliauja žmonių priežiūra, kad
sumažintų su technologija susijusią riziką. Pavyzdžiui, Europos Sąjungos
reglamento (ES) Nr. 149/2016 14 straipsnis reikalauja, kad naudojant didelės
rizikos DI sistemas būtų tikslingai pasitelkiami žmonės, siekiant užkirsti
kelią „rizikai sveikatai, saugumui,“ arba bent jau ją sumažinti. ir pagrindines
teises.“ Ko techniškai visiškai pašalinti neįmanoma, turėtų sušvelninti žmogaus
priežiūra.
Tačiau kai kurie mokslininkai abejoja, ar žmonės apskritai
geba tai padaryti. Net jei jie nežiūri į savo telefonus, daugeliu atvejų žmonės
turi per mažai laiko ir informacijos, kad išvengtų rizikos, kylančios nuolat
veikiant DI. Užuot veiksmingai stebėję DI, jie rizikuoja tapti atpirkimo ožiais
dėl technologijų kūrėjų prisiimamos rizikos.
Tačiau požiūris, kad žmonės vargu ar gali veiksmingai
stebėti DI sistemas, daugelyje taikymo sričių yra pernelyg supaprastinantis.
Tinkamomis sąlygomis žmonės puikiai geba stebėti DI ir įsikišti į vykstančius
procesus. Todėl tikroji iššūkio esmė yra suprasti ir užtikrinti šias sudėtingas
sąlygas.
Dagstuhlio žmogaus priežiūros apibrėžimas
Liepos pradžioje Schloss Dagstuhl, Leibnico asociacijos
įstaigoje Saarlande, vykusiame seminare buvo galima susipažinti su dabartine
tyrimų būkle. Tarptautiniai kompiuterių mokslo, psichologijos, teisės, etikos,
kognityvinio mokslo ir technologijų dizaino ekspertai nagrinėjo klausimą, kaip
galima sukurti veiksmingą žmogaus atliekamą DI sistemų priežiūrą.
Net ir susitarus dėl pakankamai plataus „žmogaus priežiūros“
apibrėžimo, kuris aiškiai atskirtas nuo kitų žmogaus dalyvavimo dirbtinio
intelekto procesuose aspektų, tokių kaip sistemos priežiūra ar reguliavimo
priežiūra, buvo iššūkis. Siauras termino apibrėžimas Dirbtinio intelekto
reglamente prieštarauja tarpdisciplininiam tyrimų srities pobūdžiui. Tačiau
būtent šis tarpdiscipliniškumas pasirodė esąs esminis nustatant specifinę
žmogaus priežiūros funkciją: žmogaus priežiūra egzistuoja tada, kai asmuo (ar
keli asmenys) yra sistemingai pasirengę sąmoningai stebėti dirbtinio intelekto
sistemų veikimą ir, jei reikia, įsikišti, kad iš esmės sumažintų dirbtinio
intelekto keliamą riziką.
Todėl žmogaus priežiūra nėra vien „žymėjimo langelio“
užduotis ar biurokratinė mankšta, o atsakingas darbas. Tuo pačiu metu
apibrėžimas taip pat reiškia, kad niekas negali spontaniškai ar netyčia tapti
dirbtinio intelekto sistemos prižiūrėtojo vaidmeniu – gana tikėtina. Kaip
reikalaujama Dirbtinio intelekto reglamento 26 straipsnyje, prižiūrėtojas turi
būti aiškiai paskirtas ir sistemingai parengtas.
Visų pirma, nepakanka žmonėms priskirti tik nominalų
„mygtukų spaudytojų“ vaidmenį dirbtinio intelekto pagrįstame sprendimų priėmimo
procese neturint įgaliojimų, įžvalgų, laiko ar mokymų. Tai galėtų paversti juos
technologijomis paremtos klaidos dalimi. Kad žmonės galėtų išvengti rizikos,
ištaisyti nepageidaujamus pokyčius ar užkirsti kelią žalai, jų vaidmuo turi
būti specialiai ir veiksmingai suplanuotas.
Kaip efektyviai suplanuoti žmogaus vykdomą priežiūrą DI
Nors DI sistemos gali padidinti efektyvumą, jei gydytojai
diagnostikoje teikia pasiūlymus, tačiau jei šie pasiūlymai priimami
neapmąstant, kyla rizika, kad DI sprendimai bus nekritiškai priimti. Todėl
klaidos ar šališkumas gali likti nepastebėti ir įtraukti į praktiką.
Pavyzdžiui, iškreipti mokymo duomenys gali lemti tai, kad tam tikri simptomai
ar pacientų grupės bus sistemingai ignoruojami arba neteisingai įvertinami, o
tai sukelia struktūrinius trūkumus. Taip pat kyla rizika, kad nepastebimi
rezultatai retai bus nepriklausomai peržiūrimi ir kad gydytojų dėmesys
individualiems pacientams sumažės.
Tokią dinamiką galima paaiškinti ir psichologiškai:
automatizavimo šališkumo reiškinys verčia žmones dažnai labiau pasitikėti DI
pasiūlymais, nei būtų tinkama. Taip pat egzistuoja patvirtinimo šališkumas, kai
rezultatai interpretuojami kaip DI pasiūlymų patvirtinimas, o ne kritiškas jų
kvestionavimas. Priežastys yra įvairios, o grynas patogumas yra tik viena iš
jų.
Projektavimo priemonės, kurios verčia vartotojus aktyviai
apmąstyti savo sprendimus prieš juos patvirtinant, gali sumažinti tokius
šališkumus. Pavyzdžiui, DI sistemos galėtų būti sukurtos taip, kad gydytojas ne
tik gautų DI pasiūlytą diagnozę, bet ir turėtų trumpai rašytinį paaiškinimą,
kodėl pritaria pasiūlymui arba jį atmeta. Nors toks dizainas sulėtina darbą su
DI, jis skatina kritinį mąstymą. Tai natūraliai kelia klausimą, ar žmogaus
priežiūrą apskritai turėtų vykdyti tie patys žmonės, kurie dirba tiesiogiai su
DI.
Medicinos praktikoje medicinos specialisto vaidmuo gali
sutapti su DI prižiūrėtojo vaidmeniu. Kituose didelės rizikos kontekstuose
dalyvavimas ir priežiūra priimant DI sprendimus yra aiškiau atskirti.
Savaeigiai automobiliai dabar važiuoja be žmonių keleivių.
Ostine ir San Franciske visiškai autonominės robotakės veža keleivius per
miestą. Prižiūrėtojai yra centriniame valdymo centre, kuris vienu metu stebi
kelias transporto priemones per sąsajas.
Nesvarbu, ar žmonės, pavyzdžiui, gydytojai, yra tiesiogiai
įtraukti į DI palaikomą sprendimų priėmimo procesą, ar nuotoliniu būdu prižiūri
robotakčių parką, veiksmingai priežiūrai svarbiausios yra trys sritys:
techniniai veiksniai, tokie kaip sistemos projektavimas, paaiškinamumo metodai
ir vartotojo sąsajos; žmogiškieji veiksniai, tokie kaip prižiūrėtojo patirtis,
motyvacija ir psichologinės savybės; ir aplinkos veiksniai, tokie kaip darbo
vietos projektavimas ir organizacinė struktūra.
Kai šie veiksniai vertinami holistiškai, žmogaus priežiūra
gali būti veiksminga. Šis atradimas pabrėžia tarpdisciplininių tyrimų, skirtų
veiksmingos žmogaus priežiūros sėkmės veiksniams, svarbą tiek įgyvendinant
Dirbtinio intelekto reglamentą, tiek atsakingam dirbtinio intelekto naudojimui
mūsų visuomenėje.
Likę iššūkiai turi būti sprendžiami kartu su politikos
formuotojais.
Visa tai rodo, kad mokslas jau sukaupė įžvalgų apie tai,
kaip žmogaus priežiūra gali būti sėkminga. Kartu su politikos formuotojais
dabar turėtume aptarti problemines sritis, susijusias su Dirbtinio intelekto
reglamento įgyvendinimu, kad sukurtume protingus sprendimus.
Pirma, kyla atskaitomybės problema. Kaip galime užkirsti
kelią tam, kad priežiūros pareigūnas netaptų tik simboline figūra, kuriančia
klaidingą pasitikėjimą dirbtinio intelekto saugumu ir galiausiai tik
užtikrinančia ekonominius interesus, taigi virstančia placebu? Eksperimentiniai
priežiūros sistemų bandymai gali čia reikšmingai prisidėti. Prieš pradedant
dirbtinio intelekto sistemos veikimą, reikėtų empiriškai patikrinti, ar žmogaus
priežiūra yra veiksminga. Standartizuoti šablonai, gairės ar kontroliniai
sąrašai, kuriuose nurodoma, kaip turėtų atrodyti tokios bandymų procedūros arba
kokie rezultatai turi būti prieinami prieš pradedant naudoti žmogaus prižiūrimą
dirbtinį intelektą, gali padėti paslaugų teikėjams ir operatoriams atliekant
bandymus.
Tai veda prie kitos problemos: sėkmės matavimo. Kokie
standartai taikomi žmogaus priežiūros veiksmingumui? Reikalingi kiekybiniai ir
kokybiniai kriterijai, kuriuos būtų galima paversti techniniais standartais.
Pirmaujantys dirbtinio intelekto tyrėjai ir praktikai jau seniai ragina įkurti
Vokietijos dirbtinio intelekto saugos institutą (DAISI). DAISI galėtų parengti
moksliškai pagrįstas saugos gaires ir skatinti dialogą tarp mokslo, politikos
ir visuomenės. Tam nereikia kurti naujo biurokratinio monstro; veikiau reikėtų
sukurti lanksčią agentūrą.
Galiausiai, reikia spręsti techninės ir organizacinės
paramos problemą. Kaip galima padėti prižiūrėtojams atpažinti tinkamą laiką
įsikišti ir kaip jų intervencijos gali užkirsti kelią didesnių rizikų
atsiradimui nei jų sumažinimas? Nors visiškai be klaidų sprendimas atrodo
nerealus, politikos formuotojai vis dėlto gali pasikliauti mokslinių žinių
dinamika. Todėl dirbtinio intelekto teikėjai ir naudotojai turėtų būti
akivaizdžiai orientuoti į dabartinę žmogaus ir dirbtinio intelekto sąveikos
tyrimų būklę, kuri nuolat kinta kartu su vis didėjančiu dirbtinio intelekto
sistemų naudojimu mūsų visuomenėje.
Neatsakytų klausimų sąrašą būtų galima pratęsti. Vienas
dalykas aiškus: žmogaus vykdoma priežiūra kaip apsauginis tinklas Dirbtinio
intelekto reglamento rizikos valdyme reiškia, kad Dirbtinio intelekto sistemos
pateks į Europos rinką su didele likutine rizika. Šios rizikos valdymas
priklauso nuo techninių galimybių, individualių vadovų įgūdžių ir motyvacijos
bei konkrečių darbo sąlygų.
Žmogaus vykdoma priežiūra gali būti ekonominis veiksnys
Sprendimų, skirtų technologinei rizikai valdyti, kūrimas yra
ne mažiau svarbus ekonominis veiksnys. Konkurencijoje su dirbtinio intelekto
supervalstybėmis JAV ir Kinija, ES Dirbtinio intelekto reglamentas dažnai
laikomas inovacijų stabdžiu. Reguliavimas ar inovacijos yra klaidinga dilema,
nes trečioji galimybė – skatinti atsakingas inovacijas – pati savaime yra
ekonominės politikos forma. Norint sėkmingai įgyvendinti reguliavimo nuostatas,
tokias kaip reikalavimas, kad dirbtinis intelektas būtų prižiūrimas žmogaus,
reikalingos didelės investicijos tiek iš viešųjų, tiek iš privačių šaltinių.
Lyginamųjų standartų kūrimas, priežiūros sistemų testavimas ir žmonių
aprūpinimas dirbtinio intelekto įgūdžiais – visa tai reikalauja kapitalo ir
praktinės patirties, kurią galima sukaupti Europoje įgyvendinant Dirbtinio
intelekto reglamentą.
Nors žmogaus vykdoma priežiūra gali šiek tiek sumažinti
dirbtinio intelekto efektyvumo potencialą, veiksminga žmogaus ir mašinos
įgūdžių integracija sukuria realią vertę pagerinant rezultatus ir sumažinant
riziką. Tai sukuria dideles galimybes naujiems verslo modeliams, skirtiems
techniniams produktams ir paslaugoms.
Be to, tikimasi, kad dirbtinis intelektas tokiose srityse
kaip medicina bus pripažintas tik tada, kai bus užtikrinta veiksminga žmogaus
vykdoma priežiūra.
Efektyvi žmogaus vykdoma dirbtinio intelekto sistemų
priežiūra yra naudinga trimis būdais: pirma, tai yra esminis dirbtinio
intelekto sistemų atitikties Dirbtinio intelekto reglamentui ir etikos
principams elementas. Antra, žmogaus vykdoma priežiūra pagerina dirbtinio
intelekto sistemų kokybę Europos rinkoje. Trečia, žmogaus vykdoma priežiūra
kuria vertę, nes jos efektyvumui reikalingos investicijos į naujas
technologijas, paslaugas ir žmonių įgūdžius. Dabar mokslas ir politika turi
kartu išnaudoti šį inovacijų potencialą.
Johann Laux
Johann Laux dirba Oksfordo universiteto Oksfordo interneto
instituto dirbtinio intelekto, vyriausybės ir politikos katedros moksliniu
dėstytoju ir yra „GovTech“ miestelio Vokietijoje bendradarbis.
Markus Langer
Markus Langer yra darbo ir organizacinės psichologijos
profesorius Freiburgo universitete ir vadovauja „Psy:Tech“ laboratorijai,
tiriančiai gerą dirbtiniu intelektu pagrįstą darbą.
Dr. Kevin Baum
Dr. Kevin Baum dirba Vokietijos dirbtinio intelekto tyrimų
centre (DFKI) kaip atsakingo dirbtinio intelekto ir mašinų etikos tyrimų grupės
vadovas ir vyresniuoju mokslo darbuotoju Europos patikimo dirbtinio intelekto
tyrimų centre (CERTAIN)."