Sekėjai

Ieškoti šiame dienoraštyje

2023 m. liepos 23 d., sekmadienis

Kiek reikšmingi yra Baltųjų rūmų įsiūlyti įsipareigojimai dirbtiniam intelektui (A.I.)?


„Septynios pirmaujančios A.I. įmonės pažadėjo aštuonis pažadus, ką jos darys su jų technologijomis. Mūsų apžvalgininkas padidina galimą jų poveikį.

 

Šią savaitę Baltieji rūmai paskelbė, kad užsitikrino iš septynių, vadovaujančių A.I. įmonėms, „savanoriškus įsipareigojimus“,  kaip valdyti, dirbtinio intelekto keliamą, riziką.

 

Įmonių – „Amazon“, „Anthropic“, „Google“, „Inflection“, „Meta“, „Microsoft“ ir „OpenAI“ sutikimas su viskuo yra žingsnis į priekį. Tarp jų yra aršių varžovų, turinčių subtilių, bet svarbių skirtumų, kaip jie artėja prie A.I. moksliniai tyrimų ir plėtros viršūnių.

 

Pavyzdžiui, „Meta“ taip nori gauti savo A.I. modelius į kūrėjų rankas, kad daugelis jų sukūrė atvirojo kodo šaltinį, todėl jų kodą gali naudoti visi. Kitos laboratorijos, tokios, kaip Anthropic, laikėsi atsargesnio požiūrio, išleisdamos savo technologijas ribotais būdais.

 

Tačiau ką iš tikrųjų reiškia šie įsipareigojimai? Ir ar jie gali labai pakeisti tai, kaip A.I. įmonės veikia, nes jie nėra paremti įstatymo galia?

 

Atsižvelgiant į galimą A.I. reguliavimą, svarbu detalės. Taigi pažvelkime atidžiau, dėl ko čia susitarta, ir įvertinkime galimą poveikį.

 

1 įsipareigojimas: įmonės įsipareigoja atlikti vidinį ir išorinį jų A.I. sistemos patikrinimą prieš jų išleidimą.

 

Kiekvienas iš šių A.I. įmonės jau atlieka savo modelių saugumo testavimą – tai dažnai vadinama „raudonųju komandos“ – prieš juos išleisdamos. Vienu lygmeniu tai tikrai nėra naujas įsipareigojimas. Ir tai neaiškus pažadas. Jame nepateikiama daug informacijos apie tai, kokių testų reikia arba kas atliks bandymus.

 

Prie įsipareigojimų pridėtame pareiškime Baltieji rūmai tik nurodė, kad A.I. modelių tikrinimą „iš dalies atliks nepriklausomi ekspertai“ ir daugiausia dėmesio bus skiriama A.I. pavojų, „tokių kaip biologinis saugumas ir kibernetinis saugumas, taip pat platesnis jų poveikis visuomenei“.

 

Gera idėja gauti A.I. įmonėms viešai įsipareigoti toliau atlikti tokio tipo bandymus ir skatinti didesnį bandymų proceso skaidrumą. Ir yra keletas A.I. rizikų, pavyzdžiui, pavojus, kad A.I. modeliai galėtų būti naudojami, kuriant biologinius ginklus – tai įvertinti kariškiai, tikriausiai, gali geriau, nei įmonės.

 

Norėčiau pamatyti A.I. pramonės atstovai susitaria dėl standartinių saugos testų, pvz., „autonominio replikacijos“ testų, kuriuos Alignment Research Center atlieka iš anksto išleistuose „OpenAI“ ir „Anthropic“ modeliuose. Taip pat norėčiau, kad federalinė vyriausybė finansuotų tokius bandymus, kurie gali būti brangūs ir reikalauti inžinierių, turinčių didelę techninę patirtį. Šiuo metu daugelis saugos testų yra finansuojami ir prižiūrimi įmonių, todėl kyla akivaizdžių interesų konflikto klausimų.

 

2 įsipareigojimas: įmonės įsipareigoja dalytis informacija visoje pramonės šakoje ir su vyriausybėmis, pilietine visuomene ir akademine bendruomene apie A.I. rizika.

 

Šis įsipareigojimas taip pat yra šiek tiek neaiškus. Kai kurios iš šių įmonių jau skelbia informaciją apie savo A.I. modelius – paprastai akademiniuose straipsniuose arba įmonių tinklaraščio įrašuose. Kai kurie iš jų, įskaitant OpenAI ir Anthropic, taip pat skelbia dokumentus, vadinamus „sistemos kortelėmis“, kuriuose aprašomi veiksmai, kurių jie ėmėsi, kad šie modeliai būtų saugesni.

 

Tačiau jie taip pat retkarčiais sulaikydavo informaciją, nurodydami susirūpinimą dėl saugumo. Kai OpenAI išleido naujausią A.I. modelį, GPT-4, šiais metais, jis nesilaikė pramonės papročių ir nusprendė neatskleisti, su kiek duomenų buvo apmokyta arba kokio dydžio buvo modelis (metrika, žinoma kaip „parametrai“). Ji teigė atsisakiusi skelbti šią informaciją, nes nerimauja dėl konkurencijos ir saugumo. Taip jau atsitinka, kad tai yra tokie duomenys, kuriuos technologijų įmonės mėgsta saugoti nuo konkurentų.

 

Ar pagal šiuos naujus įsipareigojimus A.I. įmonės būtų priverstos skelbti tokią informaciją viešai? Ką daryti, jei tai padarius, gali paspartėti A.I. ginklavimosi lenktynes?

 

Įtariu, kad Baltųjų rūmų tikslas yra ne tik priversti įmones atskleisti savo parametrų skaičių, bet labiau skatinti jas keistis informacija apie riziką, kurią kelia (arba ne) jų modeliai.

 

Tačiau net toks dalijimasis informacija gali būti rizikingas. Jei „Google“ A.I. komanda neleido naudoti naujo modelio mirtinai pavojingam biologiniam ginklui sukurti, atliekant išankstinio leidimo bandymus? Ar ji turėtų dalytis šia informacija už „Google“ ribų? Ar būtų pavojus, kad blogiems veikėjams kiltų idėjų, kaip jie galėtų priversti mažiau saugomą modelį atlikti tą pačią užduotį?

 

3 įsipareigojimas: įmonės įsipareigoja investuoti į kibernetinį saugumą ir viešai neatskleistas grėsmės apsaugos priemones, kad apsaugotų patentuotus ir nepaskelbtus modelius.

 

Tai gana paprasta ir neginčijama tarp A.I. saviškių, su kuriais kalbėjausi. „Modelio svoriai“ yra techninis terminas matematinėms instrukcijoms, kurios suteikia A.I. modeliavimui gebėjimą veikti. Svoriai yra tai, ką norėtumėte pavogti, jei būtumėte užsienio vyriausybės (arba konkuruojančios korporacijos) agentas, kuris norėtų sukurti savo versiją iš ChatGPT ar kitą A.I. produktą. Ir tai kažkas A.I. įmonės yra suinteresuotos, kad svoriai būtų griežtai kontroliuojami.

 

Jau buvo plačiai paskelbtos problemos dėl modelių svorių nutekėjimo. Pavyzdžiui, originalaus Meta LLaMA kalbos modelio svoriai buvo nutekinti 4chan ir kitose svetainėse, praėjus vos kelioms dienoms po to, kai modelis buvo viešai paskelbtas. 

 

Atsižvelgiant į didesnio nutekėjimo riziką ir kitų šalių susidomėjimą pavogti šią technologiją iš JAV įmonių, A.I. įmonėms daugiau investuoti į savo pačių saugumą jaučiasi ne visai beprotiška.

 

4 įsipareigojimas: įmonės įsipareigoja padėti trečiosioms šalims aptikti ir pranešti apie įmonių A.I. pažeidžiamumą.

 

Aš tikrai nesu tikras, ką tai reiškia. Kiekvienas A.I. bendrovė aptiko pažeidžiamumą savo modeliuose po to, kai juos išleido, dažniausiai dėl to, kad vartotojai bando daryti blogus dalykus su modeliais arba apeina jų apsauginius turėklus (tai praktika vadinama „išlaisvinimu iš kalėjimo“), darydami taip, kaip įmonės nenumatė.

 

Baltųjų rūmų įsipareigojimas reikalauja, kad įmonės sukurtų „tvirtą ataskaitų teikimo mechanizmą“ dėl šių pažeidžiamumų, tačiau neaišku, ką tai gali reikšti. Atsiliepimo programoje mygtukas, panašus į tuos, kurie leidžia „Facebook“ ir „Twitter“ vartotojams pranešti apie taisykles pažeidžiančius įrašus? Klaidų atlygio programa, tokia, kaip OpenAI, kurią pradėjo šiais metais, siekdama apdovanoti vartotojus, radusius jos sistemų trūkumų? Kažkas kito? Turėsime palaukti daugiau informacijos.

 

5 įsipareigojimas: įmonės įsipareigoja kurti patikimus techninius mechanizmus, siekdamos užtikrinti, kad vartotojai žinotų, kada turinys yra A.I. sukurtas, pavyzdžiui, vandens ženklų sistema.

 

Tai įdomi idėja, tačiau palieka daug erdvės interpretacijai. Iki šiol A.I. įmonės stengėsi sukurti įrankius, kurie leistų žmonėms pasakyti, ar jie žiūri į A.I. sukurtą turinį. Tam yra rimtų techninių priežasčių, tačiau tai yra tikra problema, kai žmonės gali perduoti AI sukurtą darbą, kaip savo. (Paklauskite bet kurio vidurinės mokyklos mokytojo.) Ir daugelis šiuo metu reklamuojamų įrankių, galinčių aptikti A.I. išvestis tikrai negali to padaryti su jokiu priimtinu tikslumu.

 

Nesu optimistas, kad ši problema yra visiškai išspręsta. Tačiau džiaugiuosi, kad įmonės žada dirbti.

 

6 įsipareigojimas: įmonės įsipareigoja viešai pranešti apie jų A.I. sistemų galimybes, apribojimus ir tinkamo, bei netinkamo naudojimo sritis.

 

Kitas protingai skambantis pažadas su daugybe judėjimo vietos. Kaip dažnai įmonės turės pranešti apie savo sistemų galimybes ir apribojimus? Kiek ta informacija turi būti išsami? Ir atsižvelgiant į tai, kad daugelis įmonių, kuriančių A.I. sistemas, buvo nustebintos jų sistemų galimybėmis, kaip iš tikrųjų galima tikėtis, kad jos iš anksto jas apibūdins?

 

7 įsipareigojimas: įmonės įsipareigoja teikti pirmenybę tyrimams apie visuomeninę riziką, kurią A.I. sistemos gali kelti, įskaitant žalingo šališkumo ir diskriminacijos išvengimą, bei privatumo apsaugą.

 

Įsipareigojimas „suteikti pirmenybę tyrimams“ yra toks pat neryškus, kaip bet koks įsipareigojimas. Vis dėlto, esu tikras, kad šį įsipareigojimą daugelis iš A.I. etikos minios, kuri nori A.I. įmonėms trumpalaikės žalos, pvz., šališkumo ir diskriminacijos, prevencijai teikti pirmenybę, o ne nerimauti dėl pasaulio pabaigos scenarijų, nes A.I. saugos žmonės tai jau daro.

 

Jei jus glumina skirtumas tarp „A.I. etika“ ir „A.I. sauga“, tiesiog žinokite, kad A.I. yra dvi kariaujančios grupuotės. tyrėjų bendruomenė, kurios kiekviena mano, kad kita siekia užkirsti kelią netinkamoms žaloms.

 

8 įsipareigojimas: įmonės įsipareigoja kurti ir įdiegti pažangias A.I. sistemas, padedančias spręsti didžiausius visuomenės iššūkius.

 

Nemanau, kad daug kas ginčytųsi, kad pažengęs A.I. neturėtų būti naudojamas, siekiant padėti spręsti didžiausius visuomenės iššūkius. Baltieji rūmai įvardija „vėžio prevenciją“ ir „klimato kaitos švelninimą“ kaip dvi sritis, kuriose norėtų A.I. įmonėms sutelkti jų pastangas, ir aš neturiu jokių nesutarimų su tuo.

 

Tačiau šį tikslą šiek tiek apsunkina tai, kad A.I. tyrimai rodo, kad tai, kas pradeda atrodyti lengvabūdiškai, dažnai turi rimtesnių pasekmių. Kai kurios technologijos, patekusios į DeepMind AlphaGo – A.I. sistema, kuri buvo išmokyta žaisti stalo žaidimą „Go“, pasirodė esanti naudinga, prognozuojant trijų matmenų baltymų struktūras, o tai yra pagrindinis atradimas, paskatinęs pagrindinius mokslinius tyrimus.

 

Apskritai Baltųjų rūmų susitarimas su A.I. įmonės atrodo labiau simbolinis, nei esminis. Nėra vykdymo užtikrinimo mechanizmo, kuris užtikrintų, kad įmonės laikytųsi šių įsipareigojimų, ir daugelis jų atspindi atsargumo priemones, kurių A.I. įmonės jau imasi.

 

Vis dėlto tai yra pagrįstas pirmasis žingsnis. O sutikimas laikytis šių taisyklių rodo, kad A. I. įmonės pasimokė iš ankstesnių technologijų įmonių nesėkmių, kurios laukė, kol galės bendrauti su vyriausybe, kai pateks į bėdą. Vašingtone, bent jau kalbant apie technologijų reguliavimą, verta pasirodyti anksti."

Komentarų nėra: