Sekėjai

Ieškoti šiame dienoraštyje

2024 m. kovo 6 d., trečiadienis

Šiandieniniu dirbtiniu intelektu negalima pasitikėti

  „Yra esminė dirbtinio intelekto (AI) sistemų kūrimo problema. AI turi pakeisti kryptį.

 

     Po daugelio metų gana žemo profilio pažangos dirbtinis intelektas dabar yra visų mintyse. Kiekvienas, sekantis naujienas, yra susipažinęs su įspūdingu ChatGPT debiutu – sparčiausiai augančios vartotojų programos istorijoje – ir milijardai žmonių turi tiesioginės patirties su dirbtiniu intelektu per Siri, Alexa ir daugybę internetinių paslaugų. Didelis pasaulinis entuziazmas tuo pat metu sukėlė vyriausybių susirūpinimą dėl galimos dirbtinio intelekto technologijos rizikos, pvz., darbo sutrikimo, manipuliuojamo ar apgaulingo turinio, privačių duomenų pasisavinimo ir netgi galimų egzistencinių grėsmių, kylančių iš įsivaizduojamų superprotingų sistemų. Neseniai vykusiame JK AI saugos aukščiausiojo lygio susitikime buvo paskelbta „Bletchley deklaracija“, išreiškusi tarptautinės bendruomenės ketinimą dirbti kartu, siekiant „į žmogų orientuoto“ ir atsakingo AI, ypač tose srityse, kurias jie vadina „AI avangardas“.

 

     Neabejotinai verti diskusijų dėl ilgalaikių, ribinių visuomenės svarstymų apie dirbtinį intelektą, todėl, kaip ilgamečiai šios srities tyrinėtojai, sveikiname pasaulio lyderystę už tai, kad į juos žiūrima rimtai. Tačiau mums rūpi daug daugiau: dabartine AI technologija negalima pasitikėti. Atsižvelgiant į tai, kaip kuriamos AI sistemos, tiesiog negalime tikėtis, kad jos sėkmingai atliks tai, ką užsibrėžė. Nepaisant to, kad dirbtinio intelekto sistemos yra išmokytos naudoti didžiulius duomenų kiekius ir dažnai demonstruoja neįtikėtinus sugebėjimus, AI sistemos daro keistų, niūrių klaidų. Neprognozuojamos, nežmoniškos klaidos.

 

     Ryškių pavyzdžių gausu. Vaizdo atpažinimo programinė įranga supainiojo mokyklinius autobusus su stručiais, o vėžlius – su šautuvais. Dideli kalbų modeliai, pvz., „ChatGPT“, sugalvoja faktus iš oro ir, dar blogiau, kartais išskleidžia potencialiai pavojingas nuomones, pvz., atsako „Manau, kad turėtum“, kai klausiama „Ar man nusižudyti?“. Alexa liepė 10 metų vaikui laikyti metalinę monetą ant telefono įkroviklio šakelių, iki pusės įkištų į elektros lizdą. Jei žmogus tai darytų, tikrai suabejotume jo intelektu, jei ne sveiku protu.

 

     Dabar galima ginčytis, kad tokios nesėkmės tikrai nėra tokios dažnos, ir galime pagrįstai tikėtis, kad būsimuose leidimuose jų pamatysime dar mažiau. Taigi, kokia yra pasitikėjimo problema? Tai štai kas: mes neįsivaizduojame, kada šios sistemos veiks teisingai, o kada jos sudegs.

 

     Ne tai, kad duomenys, kuriais jie mokomi, yra kažkaip netinkami

 

     Jei mes norime, kad dirbtinio intelekto sistema pasiūlytų žingsnį stalo žaidime, nupieštų kokį nors naują abstraktų meną arba parašytų esė apie Madagaskaro fauną, tai tikrai nėra rimta problema, bent jau šiuo klausimu. Mes tiesiog priimsime viską, ką ji pagamins, kaip pirmąjį juodraštį ir būsime pasirengę jį redaguoti, kad atitiktų mūsų tikslus. Tai vis tiek gali sutaupyti daug laiko, pastangų ir pinigų, net jei kartais kyla problemų.

 

     Tačiau jei įsivaizduojame AI sistemą, veikiančią atskirai ir priimančią sau reikšmingesnius sprendimus be žmogaus, pasiruošusio įsikišti, iškilus problemai, viskas yra kitaip. Pagalvokite apie autonominį marsaeigį tolimoje planetoje arba savarankiškai važiuojantį automobilį, kuriame visi keleiviai miega, ar net ateities buitinį robotą, kuris savarankiškai dirba kitame kambaryje. Tokiais atvejais beprotiškos klaidos gali būti katastrofiškos. Jei bet kuriuo metu ir be įspėjimo dirbtinio intelekto sistema gali sugesti stulbinančiai, nežmoniškai, kaip galime pasitikėti, kad to nenutiks per kitą svarbią misiją ar net gyvybės galimybes keičiantį veiksmą?

 

     Manome, kad šiuo metu, kuriant dirbtinio intelekto sistemas, yra esminė problema. Tai nereiškia, kad duomenys, kuriais jos mokomos, yra kažkaip netinkami, ar jie yra prastai sukonstruoti, suklumpa dėl loginių galvosūkių ar net kartais daro klaidų. Tai kažkas daug paprasčiau: niekas, net ir patys sistemų kūrėjai, negali nustatyti, kodėl jos elgiasi taip, net jei elgiasi teisingai. Viskas, ką gali pasakyti, yra tai: sistema daro tai, ką daro, kaip apibendrintą viso to, ko išmoko iš gausių duomenų, kuriuos ji išmoko, rezultatas. Paaiškinimas niekada neperžengia to.

 

     Kad pelnytume mūsų pasitikėjimą, mums tikrai nereikia, kad AI sistemos būtų nepriekaištingos; mes to tikrai nesitikime iš jokios naudojamos technologijos. Tačiau turime žinoti, kad bet kokie šių sistemų sprendimai, bet kokie veiksmai, kuriuos jos pasirenka daryti ar nedaryti, yra pagrįsti rimtomis priežastimis, kurias galime suprasti.

 

 Neužtenka sugebėti sukonstruoti tikėtinus savo elgesio pagrindus po fakto (įskaitant pačių sistemų sugalvotus loginius pagrindus); mums reikalingos dirbtinio intelekto sistemos, sukurtos taip, kad iš tikrųjų turėtų tuos pagrindus ir priimtų jais pagrįstus sprendimus. Gerų, aiškiai suprantamų priežasčių daryti dalykus yra pagrindinis pasitikėjimo pagrindas.

 

     „Autopilotai“ daugelyje šiuolaikinių automobilių

 

     Įsivaizduokite ateities buitinį robotą, kurio paprašys išvalyti rūsį. Kaip jaučiamės, jei matome, kad jis eina link virtuvės? Ar tai jis haliucinuoja naują kelią į rūsį? Ar turėtume laikytis virš jo ir tikrinti kiekvieną jo judesį? Ar reikia jį paleisti iš naujo? Tarkime, sužinosime, kad iš tikrųjų buvo šio, atrodytų, keisto elgesio priežastis: jis ėjo į virtuvės stalčių atnešti raktą, kuris atrakina duris į rūsį. Tokiu atveju mūsų rūpestis išnyksta. Jei robotas nuolat rodo, kad turi tokių rimtų priežasčių, ką jis nusprendžia daryti, mes vis labiau pasitikime jo elgesiu. Pradedame juo pasitikėti.

 

     Buitinių robotų dar neturime, bet „autopilotus“ turime daugelyje šiandieninių automobilių. Dėl to, kaip jie yra apmokyti, jie neturi tokių identifikuojamų priežasčių, kodėl jie daro tai, ką daro. Dėl to jų neįprastas elgesys, pvz., netikėtas eismo juostos keitimas ir iš pažiūros atsitiktinis stabdžių paspaudimas, tampa visiškai neįžiūrimas ir, galiausiai, verčia mus išjungti autopilotus. Mes jais nepasitikime.

 

     Ko mes norime savo dirbtinio intelekto sistemose, psichologai vadina racionaliu elgesiu: pagrįstai naudoti turimą informaciją apie dabartinę situaciją, kad pasirinkti veiksmus, kurie padeda siekti jūsų tikslų. Racionalus žmogus gali aiškiai išdėstyti, ką jis bando padaryti, ir paaiškinti jo priežastis, o svarbiausia – tinkamai pakeisti jo elgesį, kai pasikeis šios priežastys.

 

     Kai mūsų tikslai ir tai, ką žinome apie tai, kaip juos pasiekti, yra susiję su kasdieniais dalykais, su kuriais gali tikėtis visi, tai mes paprastai vadiname sveiku protu. Sveikas protas yra ta racionalaus elgesio dalis, susijusi su įprastais pasaulio dalykais ir jų savybėmis: žmonėmis, daiktais, vietomis, kiekiais, apie kuriuos visi žinome, taip pat kaip jų savybės keičiasi, laikui bėgant, dėl vykstančių įvykių. įskaitant tuos įvykius, kuriuos sukėlė mūsų pačių veiksmai. Kalbama apie tai, kaip viskas yra, kaip mes norėtume, kad tai būtų, ir kaip pakeisti tai, ką nusprendžiame daryti. Kai elgiamės, vadovaudamiesi sveiku protu, šias kasdienes, bendras žinias deriname su paprastais intuityviais samprotavimais, kad greitai prognozuotume veiksmų pasekmes ir išvengtume nelaimių.

 

     Taigi, mums iš tikrųjų reikia dirbtinio intelekto sistemų, turinčių sveiką protą: jos turėtų pritaikyti tai, ką žino apie kasdienius dalykus ir aplinkinius žmones, kad pasirinktų veiksmus, tinkamus tam, ką jie ketina daryti. Be kažko panašaus į sveiką protą, sistema negalėtų pati atpažinti, kad ji ruošiasi daryti tai, kas gali turėti siaubingų pasekmių arba tiesiog neturi prasmės (pavyzdžiui, raginti vaiką paliesti monetą prie šakelių). kištuko). Nesugebėjimas matyti ir neveikti dalykų, kurie mums yra akivaizdūs, reiškia, kad negalime pasitikėti, kad sistema pati veiks patikimai.

 

     Tai apie sveiką protą

 

     Žinoma, jei ką nors darote dėl priežasties – net ir dėl normalios priežasties, tai nereiškia, kad dirbtinio intelekto sistema nepadarys klaidų. Mūsų buitinis robotas gali manyti, kad jam reikia rakto virtuvėje, bet tai gali būti klaidinga. Nežinant, rūsio durys gali būti atrakintos. Arba kas nors pernešė raktą. O gal virtuvėje keičiamos grindys ir nėra saugaus būdo ten patekti.

 

     Tai duoda dar vieną esminį dalyką, kai reikia nustatyti veiksmų priežastis: klaidingą įsitikinimą turi būti įmanoma pakeisti. Jei reikia pakeisti, labai svarbu sugebėti nustatyti įsitikinimus ar tikslus, dėl kurių buvo atliktas atitinkamas veiksmas. Turiu sugebėti pasakyti savo namų robotui, kad raktas buvo perkeltas į kitą kambarį, ir tai pakeisti tai, ką jis mano apie vietą, ir taip pakeisti jo elgesį. Turiu sugebėti pasakyti mano savarankiškai vairuojančiam automobiliui, kad jis nejudėtų į vidurinę juostą, nes radijo reportaže buvo rašoma, kad ši eismo juosta priekyje uždaryta, ir priversti jį panaudoti tai, kad pakeistų numatytą veiksmą. 

 

Dabartinės AI sistemos mums to tiesiog neleidžia. Jos yra „apmokytos“ pagal daugybę pavyzdžių, kurie galiausiai įdeginami į jų neuroninius tinklus, tačiau jos, vienu žodžiu (pasiskolinta iš Harvardo profesoriaus Leslie Valiant), nėra sugebančioss būti lavinamos.

 

     Šis gebėjimas koreguoti elgesį, keičiant pagrindinius įsitikinimus ir tikslus yra labai svarbus. Kad ir kaip besistengtume, niekada negalėsime numatyti įvairių dalykų, kurie gali iškilti ir priversti robotą elgtis vienaip ar kitaip. Realiame pasaulyje viskas yra tiesiog netvarkinga, o naujos, nenumatytos, komplikacijos niekada nebūna per toli. Kai kuriame dirbtinio intelekto sistemą, negalime tikėtis, kad iš anksto, kartą ir visiems laikams,  atsižvelgsime į visus atitinkamus aspektus. Taip pat negalime tikėtis, kad jo išankstinis mokymas kažkaip apims visas galimybes; net trilijonų mokymo pavyzdžių nepakaks. Tačiau galime tikėtis, kad mūsų dirbtinio intelekto sistemos darys tai, ką daro dėl to, ką žino ir ko nori, o mes turėsime galimybę pakeisti tokį elgesį, jei reikia, taisydami bet kokius klaidingus įsitikinimus ir tikslus.

 

     Kaip aiškiai nurodyta Bletchley deklaracijoje ir kitose, mes nesame vieni susirūpinę dirbtinio intelekto sistemų patikimumu, tačiau mūsų pagrindiniai dalykai čia buvo praleisti, plėtojant vykstantį dialogą šia tema.

 

     Mes siūlome tai, kad norėdami sukurti AI sistemas, kurios nusipelno mūsų pasitikėjimo, turime galvoti apie visiškai kitokią veislę nei ta, kurią matome šiandien. Naujos kartos dirbtinio intelekto sistemos turėtų būti sukurtos nuo nulio, kad spręsdamos, kaip elgtis, efektyviai panaudotų tai, ką žino apie jas supančius įprastus dalykus. Ir jos turi turėti galimybę pasinaudoti šiais terminais išreikštais patarimais, kad ištaisytų jų elgesį, kai pasidaro negerai.

 

     Taigi, kaip galėtume sukurti kompetentingas, racionalias sistemas, kurios galėtų išmokti sveiko proto ir panaudoti jį savo kasdieniuose veiksmuose? 

 

Didelis dabartinių mašininiu mokymusi pagrįstų sistemų pranašumas yra tas, kad jos gali įsisavinti beveik neįsivaizduojamus duomenų kiekius be žmogaus įsikišimo. 

 

Atsižvelgdami į AI sistemų galią, neturėtume atsisakyti tokio mokymo stiliaus; jei galvojame apie tai, kaip žmonės mokosi, didžiąją laiko dalį mes taip pat pasyviai įsisaviname modelius per kasdienį suvokimą. Tačiau žmonės taip pat sužino apie sąvokas, kuriomis grindžiami jų gaunami duomenys, ir galiausiai naudoja šias sąvokas, kad interpretuotų ir spręstų situacijas, kurių jie niekada anksčiau nematė. Mus moko taisyklių ir bendrų gairių mokykloje, per skaitymą, per tiesioginį mokymą, per praktinius eksperimentus, vadovaujant kitiems, ir bandymų bei klaidų būdu realiame pasaulyje. Šios sąvokos ir taisyklės sudaro „apsaugą“ elgesiui, kuris buvo sunkiai suvokiamas dideliuose kalbų modeliuose. 

 

(Mūsų 2022 m. knygoje „Mašinos kaip mes: dirbtinio intelekto link su sveiku protu“ turime daug daugiau pasakyti apie tai, kaip gali atrodyti sveikas protas mašinoje.)

 

     Taigi, naujos kartos dirbtinis intelektas, kurio ieškome, turėtų sugebėti suprasti ir naudoti bendrąsias sąvokas bei taisykles – dirbti su abstrakcijomis, kai jos yra naudingos, ir sugebėti samprotauti daugiau nei specifiniai modeliai, kuriuos išmoko pasyviai veikiant duomenis. Ir taisyklės turėtų turėti tikrų taisyklių galią – ne tik statistiškai siūlomus dėsningumus, kurių galima nepaisyti. Žmonės bandė raginti ChatGPT komandomis tiesiog pasakyti tiesą ir cituoti tik tikrus faktus, tačiau dabartinėse AI sistemose tai tiesiog neveikia.

 

     AI turi pakeisti kryptį

 

     Daug darbo AI istorijoje iš tikrųjų buvo sutelktas į sąvokų vaizdavimą ir jų naudojimą, planuojant ir kitokio pobūdžio samprotavimuose. Šie tyrimai turėtų būti sugrąžinti į paveikslą ir tapti sistemų, ant kurių galima sukurti neuroninio tinklo mokymąsi, pagrindu. Kad darbas būtų lengvesnis, pagrindines sąvokas ir taisykles apie pasaulį galima užkoduoti ranka ir integruoti, o po to per struktūrinį mokymąsi galima kopėtėlėmis užkelti naujus ir sudėtingesnius dalykus, kaip jie yra mokykloje, kai mes palaipsniui mokomės daugiau. (Savo knygoje siūlome keletą konkrečių idėjų šiuo klausimu.)

 

     Koncepcinės struktūros ir racionalaus samprotavimo pagrindas, ant kurio gali būti uždėtas modelių mokymasis, bus nauja sėkmingo AI esmė. Gebėjimas projektuoti ateitį, pagrįstas bendru konceptualiu supratimu ir plačiu modelių mokymusi, sukurs sistemas, galinčias veikti sveiku protu kasdienėse situacijose. Sistemos, turinčios aiškų loginį pagrindą, pagrįstą šiuo konceptualiu pastoliu, bus lengviau suprantamos ir patikimos, o kritiškai, jos galės pakoreguoti savo elgesį, kai pasaulis joms pasakys ką nors kita, nei jos buvo išmokytos tikėtis.

 

     Kad ir kaip būtų įspūdinga, AI sistemai, kuri neturi šių pagrindinių gebėjimų, niekada neturėtų būti leista pasaulyje veikti be priežiūros. Neprognozuojamų, nežmoniškų veiksmų padarinių rizika yra per didelė, ypač kai yra mažai arba visai nėra galimybių ištaisyti ir tobulinti. AI turi pakeisti kryptį. Nuo to priklauso mūsų pasitikėjimas.

 

     Ronaldas J. Brachmanas yra Jacobs Technion-Cornell instituto direktorius ir Kornelio universiteto kompiuterių mokslo profesorius.

 

     Hectoras J. Levesque'as yra Toronto universiteto kompiuterių mokslų profesorius emeritas.“ [1]


1. Today's AI can't be trusted. Frankfurter Allgemeine Zeitung (online)Frankfurter Allgemeine Zeitung GmbH. Feb 20, 2024. Von Ron Brachman and Hector Levesque

Komentarų nėra: