„Grupė OpenAI viešai neatskleistų asmenų praneša apie, jų teigimu, neapdairumo ir slaptumo kultūrą San Francisko dirbtinio intelekto (A.I.) įmonėje, kuri lenktyniauja, kurdama galingiausias kada nors sukurtas A.I. sistemas.
Grupė, kurią sudaro devyni esami ir buvę „OpenAI“ darbuotojai, pastarosiomis dienomis ėmė susitelkti dėl bendro susirūpinimo, kad bendrovė nepadarė pakankamai, kad užkirstų kelią A.I. sistemos netaptų pavojingos.
Nariai teigia, kad OpenAI, kuri prasidėjo, kaip, pelno nesiekianti, mokslinių tyrimų laboratorija ir iškilo į viešumą 2022 m. išleidus ChatGPT, pirmenybę teikia pelnui ir augimui, nes bando sukurti dirbtinį bendrąjį intelektą arba A.G.I., pramonės terminą kompiuterinei programai, galinčiai padaryti viską, ką gali žmogus.
Jie taip pat teigia, kad „OpenAI“ naudojo „kietą“ taktiką, kad neleistų darbuotojams išreikšti jų susirūpinimo dėl technologijos, įskaitant ribojančius nežeminimo susitarimus, kuriuos buvo paprašyta pasirašyti išeinančių darbuotojų.
„OpenAI tikrai džiaugiasi, kurdama A.G.I. ir jie beatodairiškai lenktyniauja, kad būtų pirmieji“, – sakė Danielis Kokotajlo, buvęs OpenAI valdymo skyriaus tyrėjas ir vienas iš grupės organizatorių.
Grupė antradienį paskelbė atvirą laišką, raginantį vadovauti A.I. įmonės, įskaitant OpenAI veiklą, siekiant užtikrinti didesnį skaidrumą ir daugiau apsaugos pranešėjams.
Kiti nariai yra Williamas Saundersas, tyrimų inžinierius, vasarį palikęs OpenAI, ir kiti trys buvę OpenAI darbuotojai: Carroll Wainwright, Jacob Hilton ir Daniel Ziegler. Keletas dabartinių „OpenAI“ darbuotojų patvirtino laišką anonimiškai, nes bijojo bendrovės keršto, sakė P. Kokotajlo. Vienas dabartinis ir vienas buvęs „Google DeepMind“, „Google“ centrinės A.I. laboratorijos, darbuotojas taip pat pasirašė.
„OpenAI“ atstovė Lindsey Held pareiškime sakė: „Mes didžiuojamės mūsų pasiekimais, užtikrinančiais pajėgiausią ir saugiausią A.I. sistemą ir tikėdami mūsų moksliniu požiūriu į rizikos mažinimą. Sutinkame, kad griežtos diskusijos yra labai svarbios, atsižvelgiant į šios technologijos reikšmę, ir toliau bendradarbiausime su vyriausybėmis, pilietine visuomene ir kitomis bendruomenėmis visame pasaulyje."
„Google“ atstovas atsisakė komentuoti.
Kampanija vyksta sunkiu OpenAI momentu. Ji vis dar atsigauna po praėjusių metų bandymo perversmo, kai bendrovės valdybos nariai balsavo už generalinio direktoriaus Samo Altmano atleidimą dėl susirūpinimo dėl jo atvirumo. P. Altmanas buvo sugrąžintas po kelių dienų, o valdyba buvo perdaryta naujais nariais.
Bendrovė taip pat susiduria su teisinėmis kovomis su turinio kūrėjais, kurie ją apkaltino autorių teisių saugomų kūrinių vagyste, kad galėtų apmokyti savo modelius. („The New York Times“ praėjusiais metais padavė į teismą OpenAI ir jos partnerę „Microsoft“ dėl autorių teisių pažeidimo.) Neseniai pristatytą hiperrealistišką balso padėjėją sugadino viešas kivirčas su Holivudo aktore Scarlett Johansson, kuri tvirtino, kad OpenAI mėgdžiojo jos balsą be leidimo.
Tačiau niekas neįstrigo taip, kaip kaltinimas, kad „OpenAI“ buvo ne per daug atsargesnė dėl saugumo.
Praėjusį mėnesį du vyresnieji A.I. tyrinėtojai Ilja Sutskeveris ir Janas Leike paliko OpenAI po debesimi. Dr. Sutskeveris, buvęs OpenAI valdyboje ir balsavęs už pono Altmano atleidimą, iškėlė nerimą dėl galimos galingos A.I. sistemos. Kai kurie sauga besirūpinantys darbuotojai jo pasitraukimą vertino, kaip nesėkmę.
Taip pat išvyko ir daktaras Leike'as, kuris kartu su daktaru Sutskeveriu vadovavo OpenAI „superlygiavimo“ komandai, kuri daugiausia dėmesio skyrė galingo A.I.. modelių rizikos valdymui. Keliuose viešuose pranešimuose, kuriuose pranešama apie savo pasitraukimą, daktaras Leike'as sakė manantis, kad „saugos kultūra ir procesai atsilieka nuo blizgančių gaminių stūmimo“.
Nei daktaras Sutskeveris, nei daktaras Leike nepasirašė buvusių darbuotojų parašyto atviro laiško. Tačiau jų pasitraukimas paskatino kitus buvusius OpenAI darbuotojus pasisakyti.
„Kai užsiregistravau „OpenAI“, nepritariau tokiam požiūriui: „Iškelkime dalykus į pasaulį ir pažiūrėkime, kas atsitiks, o vėliau juos sutvarkykime“, – sakė ponas Saundersas.
Kai kurie buvę darbuotojai yra susiję su efektyviu altruizmu – utilitarizmo įkvėptu judėjimu, pastaraisiais metais susirūpinusiu, kaip užkirsti kelią egzistencinėms A.I. grėsmėms. Kritikai apkaltino judėjimą, skatinant pasaulio pabaigos scenarijus apie šią technologiją, pavyzdžiui, mintį, kad nekontroliuojamas A.I. sistema gali perimti ir sunaikinti žmoniją.
31 metų P. Kokotajlo prisijungė prie OpenAI 2022 m. kaip valdymo tyrinėtojas ir buvo paprašytas prognozuoti A.I. progresą. Jis nebuvo, švelniai tariant, optimistas.
Anksčiau dirbdamas A.I. saugos organizacijoje, jis prognozavo, kad A.G.I. gali atvykti 2050 m. Tačiau pamačius, kaip greitai A.I. tobulėjo, jis sutrumpino savo terminus.
Dabar jis mano, kad yra 50 procentų tikimybė, kad A.G.I. jie pasieks iki 2027 m. – vos per trejus metus.
Jis taip pat mano, kad tikimybė, kad žmonės, kuriantys pažangųjį A.I. sunaikins arba katastrofiškai pakenks žmonijai – niūri statistika A.I. dažnai sutrumpinama į „p(doom)“ – yra 70 proc.
„OpenAI“ metu ponas Kokotajlo pastebėjo, kad nors įmonė turi saugos protokolus, įskaitant bendras pastangas su „Microsoft“, žinoma, kaip „diegimo saugos taryba“, kuri turėjo peržiūrėti naujus modelius, kad būtų išvengta didelių pavojų prieš juos išleidžiant viešai, atrodė, kad retai ką nors sulėtino.
Pavyzdžiui, jis sakė, kad 2022 m. „Microsoft“ Indijoje pradėjo tyliai testuoti naują savo „Bing“ paieškos variklio versiją, kurioje, kai kurių OpenAI darbuotojų manymu, buvo tada dar neišleista GPT-4, pažangiausio „OpenAI“ didelės kalbos modelio, versija. P. Kokotajlo sakė, kad jam buvo pasakyta, kad „Microsoft“ negavo saugos tarybos patvirtinimo, prieš išbandydama naująjį modelį, o po to, kai valdyba sužinojo apie bandymus – iš daugybės pranešimų, kad „Bing“ elgiasi keistai vartotojų atžvilgiu – ji nieko nesustabdė „Microsoft“ platesniu mastu.
„Microsoft“ atstovas Frankas Shaw ginčijo šiuos teiginius. Jis sakė, kad Indijos bandymuose nebuvo naudojamas GPT-4 ar jokie OpenAI modeliai. Pasak jo, pirmą kartą „Microsoft“ išleido technologiją, pagrįstą GPT-4, 2023 m. pradžioje, o ją peržiūrėjo ir patvirtino saugos tarybos pirmtakas.
Galiausiai ponas Kokotajlo sakė, kad jis taip susirūpino, kad praėjusiais metais pasakė ponui Altmanui, kad bendrovė turėtų „pasisukti į saugumą“ ir skirti daugiau laiko bei išteklių, kad apsisaugotų nuo A.I. rizikos, o ne imtųsi pastangų tobulinti savo modelius. Jis teigė, kad M. Altmanas tvirtino sutinkantis su juo, tačiau niekas iš esmės nepasikeitė.
Balandį jis pasitraukė. Savo komandai skirtame el. laiške jis pasakė, kad išvyksta, nes „prarado pasitikėjimą, kad OpenAI elgsis atsakingai“, nes jos sistemos artėja prie žmogaus lygio intelekto.
„Pasaulis nepasiruošęs, o ir mes nesame pasiruošę“, – rašė ponas Kokotajlo. „Ir aš susirūpinęs, kad mes skubame į priekį, nepaisant to, ir racionalizuojame mūsų veiksmus."
Praėjusią savaitę OpenAI pranešė, kad pradėjo treniruoti naują flagmaną A.I. modelį ir kad ji kūrė naują saugos ir saugumo komitetą, kad ištirtų riziką, susijusią su naujuoju modeliu ir kitomis ateities technologijomis.
Išeidamas ponas Kokotajlo atsisakė pasirašyti standartinius „OpenAI“ dokumentus dėl išvykstančių darbuotojų, kuriuose buvo numatyta griežta nežeminimo kompaniją sąlyga, neleidžianti jiems sakyti neigiamų dalykų apie įmonę, kitaip rizikuojama, kad bus atimtas jų nuosavas kapitalas.
Daugelis darbuotojų gali prarasti milijonus dolerių, jei atsisakytų pasirašyti. Pasak jo, Kokotajlo turimas kapitalas sudarė maždaug 1,7 mln. dolerių.
(Praėjusį mėnesį „Vox“ pranešus naujienas apie šiuos susitarimus kilo nedidelė audra. Atsakydama į tai, „OpenAI“ tvirtino, kad ji niekada neatėmė buvusių darbuotojų suteikto kapitalo ir to nedarys. P. Altmanas sakė, kad jam „nuoširdžiai gėda“, kad jis nežinojo apie šiuos susitarimus, ir bendrovė pasakė, kad iš savo standartinių dokumentų pašalins nežeminimo sąlygas ir atleis buvusius darbuotojus nuo jų sutarčių.)
Savo atvirame laiške ponas Kokotajlo ir kiti buvę OpenAI darbuotojai ragina nutraukti nežeminimo ir neatskleidimo susitarimų naudojimą OpenAI ir kitose A.I. įmonėse.
„Platūs konfidencialumo susitarimai neleidžia mums reikšti savo susirūpinimo, išskyrus toms pačioms įmonėms, kurios gali nesugebėti išspręsti šių problemų“, – rašo jie.
Jie taip pat kviečia A.I. įmonėms „remti atviros kritikos kultūrą“ ir sukurti ataskaitų teikimo procesą, kad darbuotojai anonimiškai iškeltų su sauga susijusius klausimus.
Jie pasiliko pro bono teisininką Lawrence'ą Lessigą, žinomą teisės mokslininką ir aktyvistą. P. Lessigas taip pat patarė Frances Haugen, buvusiam „Facebook“ darbuotojui, kuris tapo informatoriumi ir apkaltino šią bendrovę, kad ji pelno svarbą vertina daugiau, negu saugą.
Duodamas interviu p. Lessigas sakė, kad nors tradicinės informatorių apsaugos priemonės paprastai taikomos pranešimams apie nelegalią veiklą, tai buvo svarbu, kad A.I. įmonės galėtų laisvai aptarti riziką ir galimą žalą, atsižvelgiant į technologijos svarbą.
„Darbuotojai yra svarbi saugos linija, ir jei jie negali laisvai kalbėti be atpildo, tas kanalas bus uždarytas“, – sakė jis.
„OpenAI“ atstovė ponia Held sakė, kad bendrovė turi „būdų darbuotojams išreikšti savo susirūpinimą“, įskaitant anoniminę sąžiningumo telefono liniją.
P. Kokotajlo ir jo grupė skeptiškai vertina, kad vien savireguliacijos pakaks pasiruošti pasauliui su galingesnio A.I. sistemomis. Taigi, jie ragina įstatymų leidėjus reguliuoti ir pramonę.
„Reikia kažkokios demokratiškai atskaitingos, skaidrios valdymo struktūros, kuri būtų atsakinga už šį procesą“, – sakė p. Kokotajlo. „Užuot tik pora skirtingų privačių kompanijų, kurios lenktyniautų tarpusavyje ir visa tai laikytų paslaptyje.“" [ 1]
Visada yra tikimybė, kad Samas Altmanas naudoja šiuos skandalus dėl saugumo, kad brangiau parduoti ChatGPT. ("Tarp kitko, mes galime užmušti jus visus, tokie mes galingi. Pirkite mūsų paslaugas.")
1. OpenAI Insiders Warn of a ‘Reckless’ Race for Dominance: The Shift. Roose, Kevin. New York Times (Online) New York Times Company. Jun 4, 2024.
Komentarų nėra:
Rašyti komentarą