Sekėjai

Ieškoti šiame dienoraštyje

2025 m. spalio 8 d., trečiadienis

Kaip sėkmingai vykdoma, žmogaus atliekama, dirbtinio intelekto priežiūra

 

„DI cirke lieka klausimas, kas laiko vadžias: žmonės ar mašinos?

 

Nors DI reglamentas reikalauja, kad žmonės kontroliuotų DI keliamą riziką, ekspertai ginčijasi, ar žmonės apskritai geba tai daryti. Ką dabar gali padaryti politikos formuotojai ir mokslininkai?

 

Efektyvi žmogaus vykdoma DI sistemų priežiūra yra naudinga trimis būdais: pirma, tai yra esminis DI sistemų atitikties DI reglamentui ir etikos principams elementas. Antra, žmogaus vykdoma priežiūra pagerina Europos rinkoje esančių DI sistemų kokybę. Trečia, žmogaus vykdoma priežiūra sukuria vertę, nes jos veiksmingumui reikalingos investicijos į naujas technologijas, paslaugas ir žmonių įgūdžius. Dabar mokslas ir politika turi kartu išnaudoti šį inovacijų potencialą.

 

Tačiau pirmiausia: už mirtinos avarijos slypi pagrindinis iššūkis saugiam ir patikimam DI naudojimui mūsų visuomenėje: kaip gali būti sėkminga žmogaus vykdoma DI priežiūra?

 

Pietvakarių JAV 2018 m. įvyko avarija. 2018 m. įvyko technologijų istorijos tragedija: išvengiama avarija lėmė pirmąją savaeigio automobilio sukeltą mirtį. „Uber“ platforma testavo dirbtinio intelekto (DI) valdomą „Volvo“ automobilį Finikso priemiestyje, Arizonoje, eisme, kai 49 metų moteris, stūmusi dviratį per gatvę, buvo partrenkta šio automobilio.

 

Pasak JAV greitkelių patrulio ir teismo Arizonoje, už jos mirtį nebuvo atsakingas nei „Uber“, nei DI, o žmogus. Savaeigiame automobilyje važiavęs saugos vairuotojas turėjo įsikišti ir, atsižvelgiant į vidutinį automobilio greitį, tikriausiai galėjo.

 

Tačiau užuot žiūrėjusi į kelią, ji savo išmaniajame telefone transliavo televizijos laidos „The Voice“ epizodą. Nuobodulys stebint DI kainavo žmogaus gyvybę.

 

Šis iššūkis tampa dar aktualesnis, nes DI sistemos vis dažniau diegiamos jautriose srityse, tokiose kaip medicina, eismas ar sienų kontrolė. Šiose srityse politikos formuotojai pasikliauja žmonių priežiūra, kad sumažintų su technologija susijusią riziką. Pavyzdžiui, Europos Sąjungos reglamento (ES) Nr. 149/2016 14 straipsnis reikalauja, kad naudojant didelės rizikos DI sistemas būtų tikslingai pasitelkiami žmonės, siekiant užkirsti kelią „rizikai sveikatai, saugumui,“ arba bent jau ją sumažinti. ir pagrindines teises.“ Ko techniškai visiškai pašalinti neįmanoma, turėtų sušvelninti žmogaus priežiūra.

 

Tačiau kai kurie mokslininkai abejoja, ar žmonės apskritai geba tai padaryti. Net jei jie nežiūri į savo telefonus, daugeliu atvejų žmonės turi per mažai laiko ir informacijos, kad išvengtų rizikos, kylančios nuolat veikiant DI. Užuot veiksmingai stebėję DI, jie rizikuoja tapti atpirkimo ožiais dėl technologijų kūrėjų prisiimamos rizikos.

 

Tačiau požiūris, kad žmonės vargu ar gali veiksmingai stebėti DI sistemas, daugelyje taikymo sričių yra pernelyg supaprastinantis. Tinkamomis sąlygomis žmonės puikiai geba stebėti DI ir įsikišti į vykstančius procesus. Todėl tikroji iššūkio esmė yra suprasti ir užtikrinti šias sudėtingas sąlygas.

 

Dagstuhlio žmogaus priežiūros apibrėžimas

 

Liepos pradžioje Schloss Dagstuhl, Leibnico asociacijos įstaigoje Saarlande, vykusiame seminare buvo galima susipažinti su dabartine tyrimų būkle. Tarptautiniai kompiuterių mokslo, psichologijos, teisės, etikos, kognityvinio mokslo ir technologijų dizaino ekspertai nagrinėjo klausimą, kaip galima sukurti veiksmingą žmogaus atliekamą DI sistemų priežiūrą.

 

Net ir susitarus dėl pakankamai plataus „žmogaus priežiūros“ apibrėžimo, kuris aiškiai atskirtas nuo kitų žmogaus dalyvavimo dirbtinio intelekto procesuose aspektų, tokių kaip sistemos priežiūra ar reguliavimo priežiūra, buvo iššūkis. Siauras termino apibrėžimas Dirbtinio intelekto reglamente prieštarauja tarpdisciplininiam tyrimų srities pobūdžiui. Tačiau būtent šis tarpdiscipliniškumas pasirodė esąs esminis nustatant specifinę žmogaus priežiūros funkciją: žmogaus priežiūra egzistuoja tada, kai asmuo (ar keli asmenys) yra sistemingai pasirengę sąmoningai stebėti dirbtinio intelekto sistemų veikimą ir, jei reikia, įsikišti, kad iš esmės sumažintų dirbtinio intelekto keliamą riziką.

 

Todėl žmogaus priežiūra nėra vien „žymėjimo langelio“ užduotis ar biurokratinė mankšta, o atsakingas darbas. Tuo pačiu metu apibrėžimas taip pat reiškia, kad niekas negali spontaniškai ar netyčia tapti dirbtinio intelekto sistemos prižiūrėtojo vaidmeniu – gana tikėtina. Kaip reikalaujama Dirbtinio intelekto reglamento 26 straipsnyje, prižiūrėtojas turi būti aiškiai paskirtas ir sistemingai parengtas.

 

Visų pirma, nepakanka žmonėms priskirti tik nominalų „mygtukų spaudytojų“ vaidmenį dirbtinio intelekto pagrįstame sprendimų priėmimo procese neturint įgaliojimų, įžvalgų, laiko ar mokymų. Tai galėtų paversti juos technologijomis paremtos klaidos dalimi. Kad žmonės galėtų išvengti rizikos, ištaisyti nepageidaujamus pokyčius ar užkirsti kelią žalai, jų vaidmuo turi būti specialiai ir veiksmingai suplanuotas.

 

 

Kaip efektyviai suplanuoti žmogaus vykdomą priežiūrą DI

 

Nors DI sistemos gali padidinti efektyvumą, jei gydytojai diagnostikoje teikia pasiūlymus, tačiau jei šie pasiūlymai priimami neapmąstant, kyla rizika, kad DI sprendimai bus nekritiškai priimti. Todėl klaidos ar šališkumas gali likti nepastebėti ir įtraukti į praktiką. Pavyzdžiui, iškreipti mokymo duomenys gali lemti tai, kad tam tikri simptomai ar pacientų grupės bus sistemingai ignoruojami arba neteisingai įvertinami, o tai sukelia struktūrinius trūkumus. Taip pat kyla rizika, kad nepastebimi rezultatai retai bus nepriklausomai peržiūrimi ir kad gydytojų dėmesys individualiems pacientams sumažės.

 

Tokią dinamiką galima paaiškinti ir psichologiškai: automatizavimo šališkumo reiškinys verčia žmones dažnai labiau pasitikėti DI pasiūlymais, nei būtų tinkama. Taip pat egzistuoja patvirtinimo šališkumas, kai rezultatai interpretuojami kaip DI pasiūlymų patvirtinimas, o ne kritiškas jų kvestionavimas. Priežastys yra įvairios, o grynas patogumas yra tik viena iš jų.

 

Projektavimo priemonės, kurios verčia vartotojus aktyviai apmąstyti savo sprendimus prieš juos patvirtinant, gali sumažinti tokius šališkumus. Pavyzdžiui, DI sistemos galėtų būti sukurtos taip, kad gydytojas ne tik gautų DI pasiūlytą diagnozę, bet ir turėtų trumpai rašytinį paaiškinimą, kodėl pritaria pasiūlymui arba jį atmeta. Nors toks dizainas sulėtina darbą su DI, jis skatina kritinį mąstymą. Tai natūraliai kelia klausimą, ar žmogaus priežiūrą apskritai turėtų vykdyti tie patys žmonės, kurie dirba tiesiogiai su DI.

 

Medicinos praktikoje medicinos specialisto vaidmuo gali sutapti su DI prižiūrėtojo vaidmeniu. Kituose didelės rizikos kontekstuose dalyvavimas ir priežiūra priimant DI sprendimus yra aiškiau atskirti.

 

Savaeigiai automobiliai dabar važiuoja be žmonių keleivių. Ostine ir San Franciske visiškai autonominės robotakės veža keleivius per miestą. Prižiūrėtojai yra centriniame valdymo centre, kuris vienu metu stebi kelias transporto priemones per sąsajas.

 

Nesvarbu, ar žmonės, pavyzdžiui, gydytojai, yra tiesiogiai įtraukti į DI palaikomą sprendimų priėmimo procesą, ar nuotoliniu būdu prižiūri robotakčių parką, veiksmingai priežiūrai svarbiausios yra trys sritys: techniniai veiksniai, tokie kaip sistemos projektavimas, paaiškinamumo metodai ir vartotojo sąsajos; žmogiškieji veiksniai, tokie kaip prižiūrėtojo patirtis, motyvacija ir psichologinės savybės; ir aplinkos veiksniai, tokie kaip darbo vietos projektavimas ir organizacinė struktūra.

 

Kai šie veiksniai vertinami holistiškai, žmogaus priežiūra gali būti veiksminga. Šis atradimas pabrėžia tarpdisciplininių tyrimų, skirtų veiksmingos žmogaus priežiūros sėkmės veiksniams, svarbą tiek įgyvendinant Dirbtinio intelekto reglamentą, tiek atsakingam dirbtinio intelekto naudojimui mūsų visuomenėje.

 

Likę iššūkiai turi būti sprendžiami kartu su politikos formuotojais.

 

Visa tai rodo, kad mokslas jau sukaupė įžvalgų apie tai, kaip žmogaus priežiūra gali būti sėkminga. Kartu su politikos formuotojais dabar turėtume aptarti problemines sritis, susijusias su Dirbtinio intelekto reglamento įgyvendinimu, kad sukurtume protingus sprendimus.

 

Pirma, kyla atskaitomybės problema. Kaip galime užkirsti kelią tam, kad priežiūros pareigūnas netaptų tik simboline figūra, kuriančia klaidingą pasitikėjimą dirbtinio intelekto saugumu ir galiausiai tik užtikrinančia ekonominius interesus, taigi virstančia placebu? Eksperimentiniai priežiūros sistemų bandymai gali čia reikšmingai prisidėti. Prieš pradedant dirbtinio intelekto sistemos veikimą, reikėtų empiriškai patikrinti, ar žmogaus priežiūra yra veiksminga. Standartizuoti šablonai, gairės ar kontroliniai sąrašai, kuriuose nurodoma, kaip turėtų atrodyti tokios bandymų procedūros arba kokie rezultatai turi būti prieinami prieš pradedant naudoti žmogaus prižiūrimą dirbtinį intelektą, gali padėti paslaugų teikėjams ir operatoriams atliekant bandymus.

 

Tai veda prie kitos problemos: sėkmės matavimo. Kokie standartai taikomi žmogaus priežiūros veiksmingumui? Reikalingi kiekybiniai ir kokybiniai kriterijai, kuriuos būtų galima paversti techniniais standartais. Pirmaujantys dirbtinio intelekto tyrėjai ir praktikai jau seniai ragina įkurti Vokietijos dirbtinio intelekto saugos institutą (DAISI). DAISI galėtų parengti moksliškai pagrįstas saugos gaires ir skatinti dialogą tarp mokslo, politikos ir visuomenės. Tam nereikia kurti naujo biurokratinio monstro; veikiau reikėtų sukurti lanksčią agentūrą.

 

Galiausiai, reikia spręsti techninės ir organizacinės paramos problemą. Kaip galima padėti prižiūrėtojams atpažinti tinkamą laiką įsikišti ir kaip jų intervencijos gali užkirsti kelią didesnių rizikų atsiradimui nei jų sumažinimas? Nors visiškai be klaidų sprendimas atrodo nerealus, politikos formuotojai vis dėlto gali pasikliauti mokslinių žinių dinamika. Todėl dirbtinio intelekto teikėjai ir naudotojai turėtų būti akivaizdžiai orientuoti į dabartinę žmogaus ir dirbtinio intelekto sąveikos tyrimų būklę, kuri nuolat kinta kartu su vis didėjančiu dirbtinio intelekto sistemų naudojimu mūsų visuomenėje.

 

Neatsakytų klausimų sąrašą būtų galima pratęsti. Vienas dalykas aiškus: žmogaus vykdoma priežiūra kaip apsauginis tinklas Dirbtinio intelekto reglamento rizikos valdyme reiškia, kad Dirbtinio intelekto sistemos pateks į Europos rinką su didele likutine rizika. Šios rizikos valdymas priklauso nuo techninių galimybių, individualių vadovų įgūdžių ir motyvacijos bei konkrečių darbo sąlygų.

 

Žmogaus vykdoma priežiūra gali būti ekonominis veiksnys

 

Sprendimų, skirtų technologinei rizikai valdyti, kūrimas yra ne mažiau svarbus ekonominis veiksnys. Konkurencijoje su dirbtinio intelekto supervalstybėmis JAV ir Kinija, ES Dirbtinio intelekto reglamentas dažnai laikomas inovacijų stabdžiu. Reguliavimas ar inovacijos yra klaidinga dilema, nes trečioji galimybė – skatinti atsakingas inovacijas – pati savaime yra ekonominės politikos forma. Norint sėkmingai įgyvendinti reguliavimo nuostatas, tokias kaip reikalavimas, kad dirbtinis intelektas būtų prižiūrimas žmogaus, reikalingos didelės investicijos tiek iš viešųjų, tiek iš privačių šaltinių. Lyginamųjų standartų kūrimas, priežiūros sistemų testavimas ir žmonių aprūpinimas dirbtinio intelekto įgūdžiais – visa tai reikalauja kapitalo ir praktinės patirties, kurią galima sukaupti Europoje įgyvendinant Dirbtinio intelekto reglamentą.

 

Nors žmogaus vykdoma priežiūra gali šiek tiek sumažinti dirbtinio intelekto efektyvumo potencialą, veiksminga žmogaus ir mašinos įgūdžių integracija sukuria realią vertę pagerinant rezultatus ir sumažinant riziką. Tai sukuria dideles galimybes naujiems verslo modeliams, skirtiems techniniams produktams ir paslaugoms.

 

Be to, tikimasi, kad dirbtinis intelektas tokiose srityse kaip medicina bus pripažintas tik tada, kai bus užtikrinta veiksminga žmogaus vykdoma priežiūra.

 

Efektyvi žmogaus vykdoma dirbtinio intelekto sistemų priežiūra yra naudinga trimis būdais: pirma, tai yra esminis dirbtinio intelekto sistemų atitikties Dirbtinio intelekto reglamentui ir etikos principams elementas. Antra, žmogaus vykdoma priežiūra pagerina dirbtinio intelekto sistemų kokybę Europos rinkoje. Trečia, žmogaus vykdoma priežiūra kuria vertę, nes jos efektyvumui reikalingos investicijos į naujas technologijas, paslaugas ir žmonių įgūdžius. Dabar mokslas ir politika turi kartu išnaudoti šį inovacijų potencialą.

 

Johann Laux

Johann Laux dirba Oksfordo universiteto Oksfordo interneto instituto dirbtinio intelekto, vyriausybės ir politikos katedros moksliniu dėstytoju ir yra „GovTech“ miestelio Vokietijoje bendradarbis.

Markus Langer

Markus Langer yra darbo ir organizacinės psichologijos profesorius Freiburgo universitete ir vadovauja „Psy:Tech“ laboratorijai, tiriančiai gerą dirbtiniu intelektu pagrįstą darbą.

 

Dr. Kevin Baum

Dr. Kevin Baum dirba Vokietijos dirbtinio intelekto tyrimų centre (DFKI) kaip atsakingo dirbtinio intelekto ir mašinų etikos tyrimų grupės vadovas ir vyresniuoju mokslo darbuotoju Europos patikimo dirbtinio intelekto tyrimų centre (CERTAIN)."

 


 

 


Komentarų nėra: