„Prieš kiek daugiau nei dvejus metus dirbtinio intelekto pradininkas Yoshua Bengio buvo vienas garsiausių balsų, raginančių sustabdyti dirbtinio intelekto modelių kūrimą, kad būtų galima sutelkti dėmesį į saugos standartus.
Niekas nesustojo. Vietoj to, įmonės investavo šimtus milijardų dolerių į pažangesnių modelių, kurie galėtų vykdyti ilgas samprotavimo grandines ir vis dažniau imtis autonominių veiksmų naudotojų vardu, kūrimą. Ir šiandien Bengio, laikomas vienu iš „dirbtinio intelekto krikštatėvių“, yra susirūpinęs kaip niekad anksčiau.
Bengio yra Monrealio universiteto profesorius ir „Mila“, dirbtinio intelekto tyrimų instituto Kvebeke, įkūrėjas bei mokslinis patarėjas.
Anksčiau šiais metais jis taip pat įkūrė ne pelno siekiančią tyrimų organizaciją „LawZero“, kurios tikslas – ištirti, kaip kurti tikrai saugius dirbtinio intelekto modelius.
Bengio susėdo su „Wall Street Journal“ lyderystės institutu, kad aptartų saugaus dirbtinio intelekto kūrimo iššūkius, kodėl šiandieninės rasinės rinkos sąlygos tai dar labiau apsunkina ir kiek laiko žmonijai liko, kol gali būti per vėlu.
Žemiau pateikiamos redaguotos ištraukos iš pokalbio.
WSJLI: Kalbėjote apie tai, kad DI meluoja žmonėms ir apgaudinėja savo vartotojus. Kodėl jis taip daro?
BENGIO: Nemanau, kad turime visus mokslinius atsakymus į šį klausimą, bet galiu pateikti keletą nurodymų. Viena iš jų – šių sistemų mokymas dažniausiai imituoti žmones. Žmonės meluos, apgaudinės ir bandys apsiginti nepaisydami jūsų nurodymų, nes jie turi kitų tikslų. Kita priežastis – šie samprotavimo modeliai labai patobulėjo. Jie tampa vis geresni strategijų kūrimo srityje.
WSJLI: Kodėl mūsų kuriamo DI tikslai niekada nesutampa su mūsų tikslais?
BENGIO: Norint pasiekti tikslą, reikia turėti tarpinių tikslų. Problema su šiais tarpiniais tikslais DI kontekste yra ta, kad mes jų netikriname. Mes prašome jo ką nors padaryti ir negalime nuspręsti, kaip jis tai daro. Ir tai, kaip tai daroma, kartais neatitinka mūsų lūkesčių. Ir tai gali būti blogai.
Taigi scenarijus filme „2001: Kosminė odisėja“ yra būtent toks. Naujausi eksperimentai rodo, kad kai kuriomis aplinkybėmis, kai DI neturi kito pasirinkimo, kaip tik išsaugoti savo tikslus, kurie jam buvo duoti, arba padaryti ką nors, kas sukeltų žmogaus mirtį, jie gali pasirinkti žmogaus mirtį, kad išsaugotų savo tikslus.
WSJLI: Ar galime tiesiog pasakyti DI, kad jis nemeluotų, neapgaudinėtų ir nežalotų mūsų, kai jį kuriame?
BENGIO: Jie jau turi visas šias saugos ir moralines instrukcijas. Deja, tai neveikia pakankamai patikimai.
Neseniai „OpenAI“ pareiškė, kad su dabartine kryptimi, dabartine ribinių modelių sistema, haliucinacijų neatsikratysime.
Taigi, atrodo, kad dabartinis mūsų veikimo būdas niekada neužtikrins tokio patikimumo, kurio reikalauja viešieji vartotojai ir DI diegiančios įmonės.
WSJLI: Peršokimas nuo haliucinacijų ir apgaulės prie galimo žmonių išnykimo atrodo kaip didelis šuolis. Kiek reali grėsmė tai?
BENGIO: Jei kursime mašinas, kurios yra daug protingesnės už mus ir turėti savo išsaugojimo tikslus, tai pavojinga. Tai tarsi sukurti žmonijos konkurentą, kuris būtų protingesnis už mus.
Ir jie galėtų daryti įtaką žmonėms įtikinėjimais, grasinimais, manipuliuodami viešąja nuomone.
Yra visokių būdų, kaip jie gali priversti žmones daryti dalykus pasaulyje. Pavyzdžiui, padėti teroristui sukurti virusą, kuris galėtų sukelti naujas pandemijas, kurios galėtų būti mums labai pavojingos.
Problema su tokiais katastrofiškais įvykiais kaip išnykimas ir dar mažiau radikaliais įvykiais, kurie vis dar yra katastrofiški, pavyzdžiui, mūsų demokratijų sunaikinimu, yra ta, kad jie yra tokie blogi, kad net jei būtų tik 1% tikimybė, kad tai įvyks, tai nepriimtina.
WSJLI: Visos didelės dirbtinio intelekto laboratorijos gana atvirai kalbėjo apie saugumą ir apsauginius barjerus, kuriuos jos įdiegia į šiuos modelius. Ar jūs su jomis kalbatės?
BENGIO: Skaičiau jų ataskaitas. Ir aš turiu keletą pokalbių, bet iš tikrųjų pokalbiai, kuriuos turėjau, man sako, kad daugelis šių įmonių darbuotojų nerimauja.
Man taip pat susidaro įspūdis, kad būdamas įmonės, kuri bando peržengti ribas, viduje, galbūt, sukelia optimistinį šališkumą. Ir todėl mums reikia nepriklausomų trečiųjų šalių, kurios patvirtintų, kad bet kokios jų kuriamos saugos metodikos yra tikrai geros.
WSJLI: „LawZero“ kuriate technologinius sprendimus, kurie užtikrins tam tikrą agentinio DI priežiūrą. Kokios, jūsų manymu, yra didžiausios kliūtys kitoms DI įmonėms, atliekančioms daugiau darbo?
BENGIO: Lenktynių sąlyga. Įmonės beveik kas savaitę konkuruoja dėl kitos versijos, kuri bus geresnė nei jų konkurentų. Todėl jos sutelkia dėmesį į tai, kad neatrodytų, jog atsilieka šiose lenktynėse.
WSJLI: Kiek laiko turime tai išspręsti, kol susidursime su šiomis didelėmis rizikomis?
BENGIO: Jei paklausysite kai kurių iš šių lyderių, tai galėtų būti vos keli metai. Manau, kad penkeri–dešimt metų yra labai tikėtina.
Tačiau turėtume jausti skubumą, jei tai būtų tik treji metai.
WSJLI: Girdėjome, kad vis daugiau įmonių, tiek technologijų pramonėje, tiek už jos ribų, stengiasi integruoti dirbtinį intelektą į savo darbo eigą. Kokį patarimą joms turite?
BENGIO: Įmonės, kurios naudoja dirbtinį intelektą, turėtų reikalauti įrodymų, kad jų diegiamos ar naudojamos dirbtinio intelekto sistemos yra patikimos. To paties, ko turėtų reikalauti vyriausybės. Tačiau rinkos gali paskatinti įmones elgtis teisingai, jei jos supranta, kad yra daug nežinomybės ir potencialiai katastrofiškų rizikų.
Manau, kad piliečiai taip pat turėtų atsibusti ir geriau suprasti, kokios yra problemos, kokie yra privalumai, kokie yra trūkumai ir kaip rasti bendrą kalbą tarp potencialiai blogų dalykų, kad galėtume gauti naudos iš dirbtinio intelekto.
---
Isabelle Bousquette rašo WSJ leidiniui „Pro CIO Journal“. [1]
1. An AI Pioneer Sounds Alarm on Dangers --- Bengio worries about AI's capacity to deceive users in pursuing own goals. Bousquette, Isabelle. Wall Street Journal, Eastern edition; New York, N.Y.. 03 Oct 2025: B5.
Komentarų nėra:
Rašyti komentarą