Sekėjai

Ieškoti šiame dienoraštyje

2024 m. sausio 27 d., šeštadienis

Kaip galime kontroliuoti dirbtinį intelektą (AI)

    „Šiandieniniai dideli kalbų modeliai, kompiuterinės programos, sudarančios dirbtinio intelekto pagrindą, yra įspūdingi žmogaus pasiekimai. Už nuostabių kalbinių gebėjimų ir įspūdingų žinių platumo slypi didžiulės duomenų, kapitalo ir laiko gijos.

 

     Daugeliui jų sukurti reikia daugiau, nei 100 mln. dolerių. Juos iki milijonų kartų patobulina pasikartojantys procesai, kurie įvertina, kiek sistemos priartėjo prie „teisingo atsakymo“ į klausimus ir tobulina modelį su kiekvienu bandymu.

 

     Vis dar sunku užkoduoti žmogiškąsias vertybes. Šiuo metu reikia papildomo žingsnio, žinomo, kaip sustiprinantis mokymasis iš žmonių atsiliepimų, kurio metu programuotojai naudoja savo atsakymus, kad išmokytų modelį, kad būtų naudingas ir tikslus. Tuo tarpu vadinamosios „raudonosios komandos“ provokuoja programą, siekdamos atskleisti bet kokius galimus žalingus padarinius. Šis žmogaus reguliavimo ir apsauginių turėklų derinys yra skirtas užtikrinti AI suderinimą su žmogaus vertybėmis ir bendrą saugumą. Iki šiol atrodo, kad tai veikė pakankamai gerai.

 

     Tačiau modeliams tobulėjant, šis metodas gali pasirodyti nepakankamas. Kai kurie modeliai pradeda demonstruoti polimatišką elgesį: atrodo, kad jie žino daugiau, nei tik tai, kas yra jų mokymo duomenyse, ir gali susieti sąvokas tarp sričių, kalbų ir geografinių vietų. Tam tikru momentu jie galės, pavyzdžiui, pasiūlyti naujų kibernetinių atakų ar biologinių atakų receptus – visa tai bus pagrįsta viešai prieinamomis žiniomis.

 

     Mažai sutariama, kaip galime suvaldyti šią riziką. Spauda pranešė apie įvairius lapkritį OpenAI tvyrančios įtampos paaiškinimus, įskaitant tai, kad tuometinės valdybos sprendimas atleisti generalinį direktorių Samą Altmaną buvo prieštaravimas tarp komercinių paskatų ir saugos problemų, kurios yra pagrindinės ne pelno valdybos misijos. Galimi komerciniai pasiūlymai, tokie, kaip galimybė tiksliai suderinti įmonės „ChatGPT“ programą skirtingiems klientams ir programoms, gali būti labai pelningi, tačiau toks pritaikymas taip pat gali pakenkti kai kurioms pagrindinėms „OpenAI“ apsaugos priemonėms „ChatGPT“. Tokia įtampa, susijusi su AI rizika, tik dar labiau išryškės, kai modeliai taps protingesni ir pajėgesni. Turime taikyti naujus DI saugos metodus, kurie sektų pačių pagrindinių modelių sudėtingumą ir inovacijų greitį.

 

     Nors dauguma sutinka, kad šiandienos programas paprastai yra saugios naudoti ir platinti, ar mūsų dabartiniai saugos testai gali neatsilikti nuo spartaus AI pažangos tempo? Šiuo metu pramonė gerai tvarko akivaizdžius klausimus, kuriuos reikia patikrinti, įskaitant asmeninę žalą ir išankstinio nusistatymo pavyzdžius. Taip pat gana nesudėtinga patikrinti, ar dabartinėje modelio būsenoje yra pavojingų žinių.

 

     Tai, ką daug sunkiau išbandyti, yra tai, kas vadinama „gebėjimų pertekliumi“ - tai reiškia ne tik dabartines modelio žinias, bet ir išvestas žinias, kurias jis gali generuoti.

 

     Raudonosios komandos iki šiol rodė tam tikrą pažadą, prognozuodamos modelių galimybes, tačiau būsimos technologijos gali sulaužyti mūsų dabartinį požiūrį į AI saugumą. Viena vertus, „rekursyvus savęs tobulinimas“ yra funkcija, leidžianti dirbtinio intelekto sistemoms rinkti duomenis ir gauti grįžtamąjį ryšį pačioms ir įtraukti juos, kad atnaujintų savo parametrus, taip leidžiant modeliams treniruotis. Dėl to gali atsirasti, tarkime, dirbtinis intelektas, galintis nuo nulio kurti sudėtingas sistemos programas (pvz., paprastą paieškos variklį ar naują žaidimą). Tačiau visiška naujų galimybių, kurias galėtų įgalinti pasikartojantis savęs tobulinimas, apimtis nėra žinoma.

 

     Kitas pavyzdys būtų „kelių agentų sistemos“, kai kelios nepriklausomos AI sistemos gali koordinuoti viena su kita, kad sukurtų ką nors naujo. Turėdami tik du AI modelius iš skirtingų kompanijų, bendradarbiaujančių kartu, pereisime slenkstį. Ši vadinamoji „kombinacinė naujovė“, kai sistemos sujungiamos, kad būtų sukurta kažkas naujo, kels grėsmę vien todėl, kad kombinacijų skaičius greitai viršys žmogaus priežiūros pajėgumus.

 

     Nebent išjungiant kompiuterį, atliekantį šį darbą, bus labai sunku stebėti tokias technologijas, kai tik įvyks šie proveržiai. Dabartiniai reguliavimo metodai yra pagrįsti individualaus modelio dydžiu ir mokymo pastangomis ir yra pagrįsti vis griežtesnių testų atlikimu, tačiau šie metodai suges, nes sistemos taps daug galingesnės ir, galbūt, nepagaunamos. Dirbtinio intelekto reguliavimo metodai turės būti tobulinami, kad būtų galima nustatyti ir valdyti naujas atsirandančias galimybes ir tų galimybių mastelį.

 

     Europa iki šiol bandė sukurti ambicingiausią reguliavimo režimą priimdama AI įstatymą, nustatydama skaidrumo reikalavimus ir įvairaus laipsnio reguliavimą, pagrįstą modelių rizikos lygiais. Tai netgi apima bendrosios paskirties modelius, tokius, kaip „ChatGPT“, kurie turi daugybę galimų pritaikymų ir gali būti naudojami nenuspėjamai. Bet AI įstatymas atsilieka nuo inovacijų slenksčio, nes atvirojo kodo AI modeliai, kuriems teisės aktai dažniausiai netaikomi, plečiasi savo apimtimi ir skaičiumi. Neseniai priimtame prezidento Bideno vykdomajame įsakyme dėl dirbtinio intelekto buvo laikomasi platesnio ir lankstesnio požiūrio, vyriausybinėms agentūroms suteikiant kryptį ir gaires bei nubrėžiant reguliavimo tikslus, nors ir nenaudojant visos AI įstatyme numatytos įstatymo galios. Pavyzdžiui, įsakyme Nacionaliniam standartų ir technologijų institutui suteikiama pagrindinė atsakomybė apibrėžti AI sistemų saugos standartus ir vertinimo protokolus, tačiau nereikalaujama, kad JAV dirbtinio intelekto sistemos „išlaikytų testą“. Be to, tiek Bideno įsakyme, tiek Europos AI įstatyme trūksta vidinių mechanizmų, leidžiančių greitai prisitaikyti prie AI kraštovaizdžio, kuris ir toliau greitai ir dažnai keisis.

 

     Neseniai dalyvavau Palo Alto mieste susitikime, kurį organizavo „Rand Corp.“ ir „Carnegie Endowment for International Peace“, kur pagrindiniai dirbtinio intelekto techniniai lyderiai suartėjo su idėja: geriausias būdas išspręsti šias problemas yra sukurti naują testavimo įmonių rinkinį, kuris bus skatinami diegti naujoves – trumpai tariant, tvirtą testavimo ekonomiją. Kad galėtų patikrinti galingiausias dirbtinio intelekto sistemas, jų bandytojai taip pat turės būti galingos AI sistemos, tiksliai apmokytos ir patobulintos, kad galėtų atlikti vienintelę užduotį – nustatyti saugumo problemas ir problemines sritis pažangiausiuose pasaulio modeliuose. Kad šios testavimo įmonės būtų patikimos ir tuo pat metu judrios, jos turėtų būti tikrinamos ir sertifikuotos vyriausybinių reguliuotojų, tačiau jos turėtų būti kuriamos ir finansuojamos privačioje rinkoje, o tam gali padėti filantropijos organizacijos. (Filantropija, kurią įkūriau, Schmidt Sciences ir aš padėjome finansuoti kai kuriuos ankstyvuosius AI saugos tyrimus.) Ši sritis juda per greitai, o statymai yra per dideli, kad būtų galima pasikliauti tik tipiniais vyriausybės procesais ir terminais.

 

     Vienas iš būdų, kaip tai gali atsiskleisti, yra tai, kad vyriausybinės reguliavimo institucijos reikalauja, kad dirbtinio intelekto modelius, viršijančius tam tikrą pajėgumų lygį, vertintų vyriausybės sertifikuotos privačios testavimo įmonės (nuo pradedančiųjų įmonių iki universitetų laboratorijų iki pelno nesiekiančių mokslinių tyrimų organizacijų), o modelių kūrėjai mokėtų už šį testavimą ir sertifikavimą. kad atitiktų saugos reikalavimus. Testavimo įmonės konkuruotų dėl dolerių ir talentų, siekdamos išplėsti savo pajėgumus tokiu pačiu greičiu, kaip ir modeliai, kuriuos jos tikrina. Daugėjant dirbtinio intelekto modelių, auganti testavimo paklausa sukurtų pakankamai didelę rinką.

 

      Testavimo įmonės galėtų specializuotis sertifikuoti pateiktus modelius pagal skirtingus saugos režimus, pvz., gebėjimą daugintis, kurti naujus biologinius ar kibernetinius ginklus arba manipuliuoti ar apgauti jų kūrėjus.

 

     Tokia konkurencinga naujovių testavimo rinka turėtų panašią dinamiką, kaip ir dabar, kuriant naujus modelius, kur per trumpą laiką matėme milžinišką pažangą. Be tokios rinkos ir jos teikiamų konkurencinių paskatų vyriausybės, tyrimų laboratorijos ir savanoriai turės garantuoti galingiausių kada nors žmonių sukurtų sistemų saugumą, naudojant įrankius, kurie kartomis atsilieka nuo AI tyrimų pažangos.

 

     Daug rašalo išsiliejo dėl numanomų AI grėsmių. Pažangios AI sistemos gali būti nesuderintos su žmogaus vertybėmis ir interesais, gali sukelti chaosą ir katastrofą sąmoningai arba (dažnai) nepaisant pastangų užtikrinti jų sauguną.

 

     Ir joms tobulėjant, grėsmės, su kuriomis šiandien susiduriame, tik didės, nes naujos sistemos išmoks tobulėti, bendradarbiauti ir potencialiai atsispirti žmogaus priežiūrai.

 

     Nors rizika yra reali, ji nėra neišvengiama. Jei galime sukurti miklių, sudėtingų, nepriklausomų testavimo įmonių, kurios nuolat tobulina jų gebėjimus vertinti dirbtinio intelekto testavimą, ekosistemą, galime padėti sukurti ateitį, kurioje visuomenė gautų naudos iš neįtikėtinos AI įrankių galios, kartu išlaikydami reikšmingas apsaugos priemones nuo destruktyvaus poveikio.

     ---

     Ericas Schmidtas yra buvęs „Google“ generalinis direktorius ir vykdomasis pirmininkas bei filantropijos „Schmidt Sciences“, finansuojančios mokslo ir technologijų tyrimus, įkūrėjas.“ [1]

 

1. REVIEW --- How We Can Control Ai --- The technology's rapid advance threatens to overwhelm all efforts at regulation. We need our best tech experts competing to rein in AI as fast as companies are competing to build it. Schmidt, Eric.  Wall Street Journal, Eastern edition; New York, N.Y.. 27 Jan 2024: C.1. 

Komentarų nėra: