„Praėjusiais metais „ChatGPT“ kūrėjo saugumo pažeidimas atskleidė vidines diskusijas tarp tyrėjų ir kitų darbuotojų, bet ne „OpenAI“ sistemų kodą.
Praėjusių metų pradžioje įsilaužėlis gavo prieigą prie vidinių „OpenAI“, „ChatGPT“ kūrėjo, pranešimų sistemų ir pavogė informaciją apie bendrovės dirbtinio intelekto (A.I.) technologijas.
Įsilaužėlis iškėlė detales iš diskusijų internetiniame forume, kuriame darbuotojai kalbėjo apie naujausias OpenAI technologijas, kaip teigia du su incidentu susipažinę žmonės, tačiau nepateko į sistemas, kuriose įmonė talpina ir kuria dirbtinį intelektą.
Pasak dviejų žmonių, kurie aptarė jautrią informaciją apie įmonę su sąlyga, kad jie liktų anonimiški, „OpenAI“ vadovai atskleidė incidentą darbuotojams per visapusišką susitikimą bendrovės biuruose 2023 m. balandžio mėn.
Tačiau vadovai nusprendė šia naujiena viešai nesidalyti, nes nebuvo pavogta informacija apie klientus ar partnerius, sakė du asmenys. Vadovai nemanė, kad incidentas kelia grėsmę nacionaliniam saugumui, nes manė, kad įsilaužėlis buvo privatus asmuo, neturintis jokių ryšių su užsienio vyriausybe. Bendrovė neinformavo FTB. ar ką nors kitą teisėsaugoje.
Kai kuriems OpenAI darbuotojams šios naujienos sukėlė baimę, kad užsienio priešai, tokie, kaip Kinija, gali pavogti A.I. technologija, kuri, nors dabar dažniausiai yra darbo ir tyrimų priemonė, ilgainiui gali kelti pavojų JAV nacionaliniam saugumui. Tai taip pat sukėlė klausimų, kaip rimtai OpenAI vertina saugumą, ir atskleidė lūžius įmonės viduje dėl dirbtinio intelekto rizikos.
Po pažeidimo Leopoldas Aschenbrenneris, OpenAI techninės programos vadovas, sutelkė dėmesį į tai, kad ateityje A.I. technologijos nedaro didelės žalos, išsiuntė atmintinę OpenAI direktorių tarybai, teigdama, kad bendrovė daro nepakankamai, kad Kinijos vyriausybei ir kitiems užsienio priešams nepavyktų pavogti jos paslapčių.
P. Aschenbrenner sakė, kad OpenAI šį pavasarį jį atleido už kitos informacijos nutekinimą už bendrovės ribų ir teigė, kad jo atleidimas buvo politiškai motyvuotas. Jis užsiminė apie pažeidimą neseniai paskelbtame podcast'e, tačiau anksčiau nebuvo pranešta apie incidentą. Jis sakė, kad „OpenAI“ saugumas nebuvo pakankamai stiprus, kad apsaugotų nuo pagrindinių paslapčių vagystės, jei į įmonę įsiskverbtų užsienio veikėjai.
„Mes vertiname susirūpinimą, kurį Leopoldas išreiškė, būdamas „OpenAI“, ir tai neprivedė prie jo išsiskyrimo“, – sakė „OpenAI“ atstovė Liz Bourgeois. Kalbėdama apie bendrovės pastangas sukurti dirbtinį bendrąjį intelektą – mašiną, galinčią padaryti viską, ką gali žmogaus smegenys, ji pridūrė: „Nors mes pritariame jo įsipareigojimui kurti saugų A.G.I., nesutinkame su daugeliu teiginių, kuriuos jis nuo tada pateikė apie mūsų darbą“.
Baiminamasi, kad įsilaužimas į Amerikos technologijų įmonę gali turėti sąsajų su Kinija, nėra nepagrįstas. Praėjusį mėnesį Bradas Smithas, „Microsoft“ prezidentas, Kapitolijaus kalne liudijo apie tai, kaip Kinijos įsilaužėliai panaudojo technologijų milžino sistemas plataus masto atakai prieš federalinės vyriausybės tinklus.
Tačiau pagal federalinius ir Kalifornijos įstatymus „OpenAI“ negali neleisti žmonėms dirbti įmonėje dėl jų pilietybės, o politikos tyrinėtojai teigė, kad užsienio talentų uždraudimas dalyvauti JAV projektuose gali labai apsunkinti A.I. vystymą Jungtinėse Amerikos Valstijose.
„Mums reikia geriausių ir šviesiausių protų, dirbančių su šia technologija“, – interviu „The New York Times“ sakė „OpenAI“ saugumo vadovas Mattas Knightas. „Tai susiję su tam tikra rizika, ir mes turime ją išsiaiškinti.
(„The Times“ padavė į teismą OpenAI ir jos partnerę „Microsoft“, teigdamas, kad buvo pažeistos naujienų turinio, susijusios su AI sistemomis, autorių teisės.)
OpenAI nėra vienintelė įmonė, kurianti vis galingesnes sistemas, naudojanti sparčiai tobulėjančią A.I. technologija. Kai kurie iš jų – ypač Meta, „Facebook“ ir „Instagram“ savininkė – laisvai dalijasi jos dizainu su likusiu pasauliu, kaip atvirojo kodo programinę įrangą. Jie mano, kad pavojai, kuriuos kelia šiandieninis A.I. technologijos yra maži, o bendras kodas leidžia pramonės inžinieriams ir tyrėjams nustatyti ir išspręsti problemas.
Šiandien A.I. sistemos gali padėti skleisti dezinformaciją internete, įskaitant tekstą, nejudančius vaizdus ir vis dažniau vaizdo įrašus.
Jie taip pat pradeda atiminėti kai kuriuos darbus.
Tokios įmonės, kaip „OpenAI“ ir jos konkurentai „Anthropic“ ir „Google“ prideda apsauginius turėklus prie jų A.I. programų, prieš siūlydami jas asmenims ir įmonėms, tikėdamiesi neleisti žmonėms naudotis programėlėmis dezinformacijai skleisti ar sukelti kitų problemų.
Tačiau nėra daug įrodymų, kad šiandieninis A.I. technologijos kelia didelį pavojų nacionaliniam saugumui.
Per pastaruosius metus OpenAI, Anthropic ir kitų atlikti tyrimai parodė, kad A.I. nėra žymiai pavojingesnis, nei paieškos sistemos.
Daniela Amodei, „Anthropic“ įkūrėjas ir bendrovės prezidentas, sakė, kad naujausias A.I. technologija nesukeltų didelio pavojaus, jei jų dizainas būtų pavogtas arba juo laisvai dalijamasi su kitais.
„Jei jis priklausytų kam nors kitam, ar tai gali būti labai žalinga daugeliui visuomenės? Mūsų atsakymas yra „Ne, tikriausiai, ne“, – praėjusį mėnesį ji sakė „The Times“. „Ar tai galėtų ką nors paspartinti blogam aktoriui? Gal būt. Tai tikrai spekuliatyvu“.
Vis dėlto mokslininkai ir technologijų vadovai jau seniai nerimauja, kad A.I. vieną dieną galėtų paskatinti naujų biologinių ginklų kūrimą arba padėti įsilaužti į vyriausybės kompiuterines sistemas. Kai kurie netgi mano, kad tai gali sunaikinti žmoniją.
Daugelis įmonių, įskaitant „OpenAI“ ir „Anthropic“, jau blokuoja savo technines operacijas. „OpenAI“ neseniai sukūrė saugos ir saugumo komitetą, kad ištirtų, kaip jis turėtų valdyti ateities technologijų keliamą riziką. Į komitetą įeina Paulas Nakasone, buvęs armijos generolas, vadovavęs Nacionalinei saugumo agentūrai ir kibernetinei vadovybei. Jis taip pat buvo paskirtas į OpenAI direktorių tarybą.
„Mes pradėjome investuoti į saugumą kelerius metus anksčiau, nei ChatGPT“, – sakė J. Knight. „Mes keliaujame, ne tik norėdami suprasti rizikas ir jų išvengti, bet ir sustiprinti savo atsparumą."
Federaliniai pareigūnai ir valstijų įstatymų leidėjai taip pat siekia priimti vyriausybės reglamentus, kurie neleistų įmonėms išleisti tam tikrų A.I. technologijas ir skirti įmonėms milijonines baudas, jei jų technologijos padarė žalos. Tačiau ekspertai teigia, kad šie pavojai tebėra metų ar net dešimtmečių atstumu.
Kinijos įmonės kuria savo sistemas, kurios yra beveik tokios pat galingos, kaip pirmaujančios JAV sistemos. Pagal kai kuriuos rodiklius Kinija aplenkė JAV kaip didžiausią A.I. talentų šalį, o Kinija generuoja beveik pusę geriausių pasaulyje A.I. tyrinėtojai.
„Nieko beprotiška manyti, kad Kinija greitai aplenks JAV“, – sakė Clémentas Delangue'as, bendrovės „Hugging Face“, kurioje yra daug atvirojo kodo A.I., vadovas.
Kai kurie tyrinėtojai ir nacionalinio saugumo lyderiai teigia, kad matematiniai algoritmai, esantys dabartinėse A.I. sistemose, nors ir nėra pavojingi šiandien, gali tapti pavojingi ir reikalauja griežčiau kontroliuoti A.I. laboratorijos.
„Net jei blogiausio atvejo scenarijų tikimybė yra santykinai maža, jei jie turi didelį poveikį, mes privalome į juos žiūrėti rimtai“, – sakė Susan Rice, buvusi prezidento Bideno patarėja vidaus politikos klausimais ir buvusi prezidento Baracko Obamos patarėja nacionalinio saugumo klausimais praėjusį mėnesį per renginį Silicio slėnyje. „Nemanau, kad tai mokslinė fantastika, kaip daugelis mėgsta teigti.“" [1]
Kinija gali pavogti mūsų dirbtinio inyelekto paslaptis. O, daugiau kinų jau yra geresni dirbtinio intelekto srityje, nei mes. Mes, kaip įprasta, idiotai.
1. A Hacker Stole OpenAI Secrets, Raising Fears That China Could, Too. Metz, Cade. New York Times (Online) New York Times Company. Jul 4, 2024.
Komentarų nėra:
Rašyti komentarą