„Septynios pirmaujančios A.I. įmonės pažadėjo aštuonis
pažadus, ką jos darys su jų technologijomis. Mūsų apžvalgininkas padidina
galimą jų poveikį.
Šią savaitę Baltieji rūmai paskelbė, kad užsitikrino
iš septynių, vadovaujančių A.I. įmonėms, „savanoriškus įsipareigojimus“, kaip valdyti,
dirbtinio intelekto keliamą, riziką.
Įmonių – „Amazon“, „Anthropic“, „Google“, „Inflection“,
„Meta“, „Microsoft“ ir „OpenAI“ sutikimas su viskuo yra žingsnis į priekį. Tarp
jų yra aršių varžovų, turinčių subtilių, bet svarbių skirtumų, kaip jie artėja
prie A.I. moksliniai tyrimų ir plėtros viršūnių.
Pavyzdžiui, „Meta“ taip nori gauti savo A.I. modelius į
kūrėjų rankas, kad daugelis jų sukūrė atvirojo kodo šaltinį, todėl jų kodą gali
naudoti visi. Kitos laboratorijos, tokios, kaip Anthropic, laikėsi atsargesnio
požiūrio, išleisdamos savo technologijas ribotais būdais.
Tačiau ką iš tikrųjų reiškia šie įsipareigojimai? Ir ar jie
gali labai pakeisti tai, kaip A.I. įmonės veikia, nes jie nėra paremti
įstatymo galia?
Atsižvelgiant į galimą A.I. reguliavimą, svarbu detalės.
Taigi pažvelkime atidžiau, dėl ko čia susitarta, ir įvertinkime galimą poveikį.
1 įsipareigojimas: įmonės įsipareigoja atlikti vidinį ir
išorinį jų A.I. sistemos patikrinimą prieš jų išleidimą.
Kiekvienas iš šių A.I. įmonės jau atlieka savo modelių
saugumo testavimą – tai dažnai vadinama „raudonųju komandos“ – prieš juos
išleisdamos. Vienu lygmeniu tai tikrai nėra naujas įsipareigojimas. Ir tai
neaiškus pažadas. Jame nepateikiama daug informacijos apie tai, kokių testų
reikia arba kas atliks bandymus.
Prie įsipareigojimų pridėtame pareiškime Baltieji rūmai tik
nurodė, kad A.I. modelių tikrinimą „iš dalies atliks nepriklausomi ekspertai“ ir
daugiausia dėmesio bus skiriama A.I. pavojų, „tokių kaip biologinis saugumas ir
kibernetinis saugumas, taip pat platesnis jų poveikis visuomenei“.
Gera idėja gauti A.I. įmonėms viešai įsipareigoti toliau
atlikti tokio tipo bandymus ir skatinti didesnį bandymų proceso skaidrumą. Ir
yra keletas A.I. rizikų, pavyzdžiui, pavojus, kad A.I. modeliai galėtų būti
naudojami, kuriant biologinius ginklus – tai įvertinti kariškiai, tikriausiai, gali geriau, nei
įmonės.
Norėčiau pamatyti A.I. pramonės atstovai susitaria dėl
standartinių saugos testų, pvz., „autonominio replikacijos“ testų, kuriuos
Alignment Research Center atlieka iš anksto išleistuose „OpenAI“ ir „Anthropic“
modeliuose. Taip pat norėčiau, kad federalinė vyriausybė finansuotų tokius
bandymus, kurie gali būti brangūs ir reikalauti inžinierių, turinčių didelę
techninę patirtį. Šiuo metu daugelis saugos testų yra finansuojami ir
prižiūrimi įmonių, todėl kyla akivaizdžių interesų konflikto klausimų.
2 įsipareigojimas: įmonės įsipareigoja dalytis informacija
visoje pramonės šakoje ir su vyriausybėmis, pilietine visuomene ir akademine
bendruomene apie A.I. rizika.
Šis įsipareigojimas taip pat yra šiek tiek neaiškus. Kai
kurios iš šių įmonių jau skelbia informaciją apie savo A.I. modelius –
paprastai akademiniuose straipsniuose arba įmonių tinklaraščio įrašuose. Kai
kurie iš jų, įskaitant OpenAI ir Anthropic, taip pat skelbia dokumentus,
vadinamus „sistemos kortelėmis“, kuriuose aprašomi veiksmai, kurių jie ėmėsi,
kad šie modeliai būtų saugesni.
Tačiau jie taip pat retkarčiais sulaikydavo informaciją,
nurodydami susirūpinimą dėl saugumo. Kai OpenAI išleido naujausią A.I. modelį,
GPT-4, šiais metais, jis nesilaikė pramonės papročių ir nusprendė neatskleisti,
su kiek duomenų buvo apmokyta arba kokio dydžio buvo modelis (metrika, žinoma kaip
„parametrai“). Ji teigė atsisakiusi skelbti šią informaciją, nes nerimauja dėl
konkurencijos ir saugumo. Taip jau atsitinka, kad tai yra tokie duomenys,
kuriuos technologijų įmonės mėgsta saugoti nuo konkurentų.
Ar pagal šiuos naujus įsipareigojimus A.I. įmonės būtų
priverstos skelbti tokią informaciją viešai? Ką daryti, jei tai padarius, gali
paspartėti A.I. ginklavimosi lenktynes?
Įtariu, kad Baltųjų rūmų tikslas yra ne tik priversti įmones
atskleisti savo parametrų skaičių, bet labiau skatinti jas keistis informacija
apie riziką, kurią kelia (arba ne) jų modeliai.
Tačiau net toks dalijimasis informacija gali būti
rizikingas. Jei „Google“ A.I. komanda neleido naudoti naujo modelio mirtinai
pavojingam biologiniam ginklui sukurti, atliekant išankstinio leidimo bandymus?
Ar ji turėtų dalytis šia informacija už „Google“ ribų? Ar būtų pavojus, kad
blogiems veikėjams kiltų idėjų, kaip jie galėtų priversti mažiau saugomą modelį
atlikti tą pačią užduotį?
3 įsipareigojimas: įmonės įsipareigoja investuoti į
kibernetinį saugumą ir viešai neatskleistas grėsmės apsaugos priemones, kad
apsaugotų patentuotus ir nepaskelbtus modelius.
Tai gana paprasta ir neginčijama tarp A.I. saviškių, su
kuriais kalbėjausi. „Modelio svoriai“ yra techninis terminas matematinėms
instrukcijoms, kurios suteikia A.I. modeliavimui gebėjimą veikti. Svoriai yra
tai, ką norėtumėte pavogti, jei būtumėte užsienio vyriausybės (arba
konkuruojančios korporacijos) agentas, kuris norėtų sukurti savo versiją iš
ChatGPT ar kitą A.I. produktą. Ir tai kažkas A.I. įmonės yra suinteresuotos,
kad svoriai būtų griežtai kontroliuojami.
Jau buvo plačiai paskelbtos problemos dėl modelių svorių
nutekėjimo. Pavyzdžiui, originalaus Meta LLaMA kalbos modelio svoriai buvo
nutekinti 4chan ir kitose svetainėse, praėjus vos kelioms dienoms po to, kai
modelis buvo viešai paskelbtas.
Atsižvelgiant į didesnio nutekėjimo riziką ir
kitų šalių susidomėjimą pavogti šią technologiją iš JAV įmonių, A.I. įmonėms
daugiau investuoti į savo pačių saugumą jaučiasi ne visai beprotiška.
4 įsipareigojimas: įmonės įsipareigoja padėti trečiosioms
šalims aptikti ir pranešti apie įmonių A.I. pažeidžiamumą.
Aš tikrai nesu tikras, ką tai reiškia. Kiekvienas A.I.
bendrovė aptiko pažeidžiamumą savo modeliuose po to, kai juos išleido,
dažniausiai dėl to, kad vartotojai bando daryti blogus dalykus su modeliais
arba apeina jų apsauginius turėklus (tai praktika vadinama „išlaisvinimu iš kalėjimo“), darydami taip, kaip
įmonės nenumatė.
Baltųjų rūmų įsipareigojimas reikalauja, kad įmonės sukurtų
„tvirtą ataskaitų teikimo mechanizmą“ dėl šių pažeidžiamumų, tačiau neaišku, ką
tai gali reikšti. Atsiliepimo programoje mygtukas, panašus į tuos, kurie
leidžia „Facebook“ ir „Twitter“ vartotojams pranešti apie taisykles
pažeidžiančius įrašus? Klaidų atlygio programa, tokia, kaip OpenAI, kurią
pradėjo šiais metais, siekdama apdovanoti vartotojus, radusius jos sistemų
trūkumų? Kažkas kito? Turėsime palaukti daugiau informacijos.
5 įsipareigojimas: įmonės įsipareigoja kurti patikimus
techninius mechanizmus, siekdamos užtikrinti, kad vartotojai žinotų, kada
turinys yra A.I. sukurtas, pavyzdžiui, vandens ženklų sistema.
Tai įdomi idėja, tačiau palieka daug erdvės interpretacijai.
Iki šiol A.I. įmonės stengėsi sukurti įrankius, kurie leistų žmonėms pasakyti,
ar jie žiūri į A.I. sukurtą turinį. Tam yra rimtų techninių priežasčių,
tačiau tai yra tikra problema, kai žmonės gali perduoti AI sukurtą darbą, kaip
savo. (Paklauskite bet kurio vidurinės mokyklos mokytojo.) Ir daugelis šiuo
metu reklamuojamų įrankių, galinčių aptikti A.I. išvestis tikrai negali to
padaryti su jokiu priimtinu tikslumu.
Nesu optimistas, kad ši problema yra visiškai išspręsta.
Tačiau džiaugiuosi, kad įmonės žada dirbti.
6
įsipareigojimas: įmonės įsipareigoja viešai pranešti apie jų A.I.
sistemų galimybes, apribojimus ir tinkamo, bei netinkamo naudojimo
sritis.
Kitas protingai skambantis pažadas su daugybe judėjimo
vietos. Kaip dažnai įmonės turės pranešti apie savo sistemų galimybes ir
apribojimus? Kiek ta informacija turi būti išsami? Ir atsižvelgiant į tai, kad
daugelis įmonių, kuriančių A.I. sistemas, buvo nustebintos jų sistemų galimybėmis,
kaip iš tikrųjų galima tikėtis, kad jos iš anksto jas apibūdins?
7 įsipareigojimas: įmonės įsipareigoja teikti pirmenybę
tyrimams apie visuomeninę riziką, kurią A.I. sistemos gali kelti, įskaitant
žalingo šališkumo ir diskriminacijos išvengimą, bei privatumo apsaugą.
Įsipareigojimas „suteikti pirmenybę tyrimams“ yra toks pat
neryškus, kaip bet koks įsipareigojimas. Vis dėlto, esu tikras, kad šį įsipareigojimą
daugelis iš A.I. etikos minios, kuri nori A.I. įmonėms trumpalaikės žalos, pvz.,
šališkumo ir diskriminacijos, prevencijai teikti pirmenybę, o ne nerimauti dėl
pasaulio pabaigos scenarijų, nes A.I. saugos žmonės tai jau daro.
Jei jus glumina skirtumas tarp „A.I. etika“ ir „A.I. sauga“,
tiesiog žinokite, kad A.I. yra dvi kariaujančios grupuotės. tyrėjų bendruomenė,
kurios kiekviena mano, kad kita siekia užkirsti kelią netinkamoms žaloms.
8 įsipareigojimas: įmonės įsipareigoja kurti ir įdiegti
pažangias A.I. sistemas, padedančias spręsti didžiausius visuomenės iššūkius.
Nemanau, kad daug kas ginčytųsi, kad pažengęs A.I. neturėtų
būti naudojamas, siekiant padėti spręsti didžiausius visuomenės iššūkius.
Baltieji rūmai įvardija „vėžio prevenciją“ ir „klimato kaitos švelninimą“ kaip
dvi sritis, kuriose norėtų A.I. įmonėms sutelkti jų pastangas, ir aš
neturiu jokių nesutarimų su tuo.
Tačiau šį tikslą šiek tiek apsunkina tai, kad A.I. tyrimai
rodo, kad tai, kas pradeda atrodyti lengvabūdiškai, dažnai turi rimtesnių
pasekmių. Kai kurios technologijos, patekusios į DeepMind AlphaGo – A.I.
sistema, kuri buvo išmokyta žaisti stalo žaidimą „Go“, pasirodė esanti naudinga,
prognozuojant trijų matmenų baltymų struktūras, o tai yra pagrindinis
atradimas, paskatinęs pagrindinius mokslinius tyrimus.
Apskritai Baltųjų rūmų susitarimas su A.I. įmonės atrodo
labiau simbolinis, nei esminis. Nėra vykdymo užtikrinimo mechanizmo, kuris
užtikrintų, kad įmonės laikytųsi šių įsipareigojimų, ir daugelis jų atspindi
atsargumo priemones, kurių A.I. įmonės jau imasi.
Vis dėlto tai yra pagrįstas pirmasis žingsnis. O sutikimas
laikytis šių taisyklių rodo, kad A. I. įmonės pasimokė iš ankstesnių
technologijų įmonių nesėkmių, kurios laukė, kol galės bendrauti su vyriausybe,
kai pateks į bėdą. Vašingtone, bent jau kalbant apie technologijų reguliavimą,
verta pasirodyti anksti."
Komentarų nėra:
Rašyti komentarą