„Kai Anthropic neseniai atskleidė kibernetinio šnipinėjimo kampaniją, kuri naudojo dirbtinį intelektą, kad didžioji dalis atakų būtų įvykdyta savarankiškai, antraštėse tai buvo nauja, nekontroliuojama grėsmė. Tačiau incidentas labiausiai išryškėjo ne dėl to, kad užpuolikai naudojo dirbtinį intelektą, kad padidintų automatizavimą ir greitį. To ir galima tikėtis. Tai buvo tai, kad Anthropic turėjo greičiau aptikti ir sustabdyti DI kampaniją.
Kibernetinis saugumas tampa kova tarp užpuolikų naudojamų DI sistemų ir jų taikinių. Lemiamas veiksnys yra tai, kuri pusė turi turtingesnius duomenis ir geresnius modelius bei gali veikti mašinos greičiu.
Apginti tinklą yra sunkiau, nei jį pulti. Gynėjas turi stebėti visas virtualias duris ir langus; Užpuolikui tereikia surasti tą, kuris yra praviras. Dirbtinio intelekto eroje, kai užpuolikai gali nuolat judinti kiekvieną virtualią durų rankeną, žmonės gynėjai neturi šansų. Svarbu, kaip greitai įdiegiame skaitmeninius gynėjus, kad iš anksto pajudintume šias durų rankenas ir jas priveržtume.
Apsvarstykite dvi pastarųjų metų atakas: „SolarWinds“ ir „Colonial Pipeline“. Įsivaizduokite, kaip dirbtinis intelektas galėjo padaryti jas dar labiau trikdančias – arba kaip DI galėjo suteikti gynėjams pranašumą, iš anksto pašalindamas pažeidžiamumą ir suteikdamas galimybę greičiau atsigauti po to.
Per ataką prieš „SolarWinds Corp.“ kažkas į programinės įrangos gamintojo naujinimus įterpė kenkėjišką kodą, pakenkdamas maždaug 18 000 klientų. Užpuolikai įterpė blogą kodą programinės įrangos kūrimo proceso taške, kurį sunku aptikti.
Šiandien dirbtinis intelektas gali atlikti gilų, automatinį programinės įrangos auditą, kad aptiktų kenkėjišką kodą, kurio žmogus gali nepastebėti tarp milijonų eilučių.
Kolonijinio vamzdyno atakos metu įsilaužėliai pasinaudojo pažeistu slaptažodžiu, kad pasiektų kurotiekio tinklą, sukeldami degalų trūkumą ir paniką perkant degalinėse. DI padarė tokio tipo atakas pavojingesnes, nes gali generuoti tūkstančius suasmenintų sukčiavimo el. laiškų, kad būtų galima greičiau surinkti daugiau slaptažodžių. Tačiau šiandien „Colonial“ taip pat gali naudoti dirbtinį intelektą, kad nustatytų sistemas su lengvai pažeistais slaptažodžiais ir užkirstų kelią atakai.
DI gali identifikuoti paskyrą, kuri veikia ne pagal įprastą modelį, ir DI agentai nedelsdami blokuoja prieigą prie paskyros.
Vienintelis klausimas yra, ar priešininkai DI įsisavins greičiau, nei gynėjams leidžiama ar skatinama. Kai kurios įmonės jau siekia pažangiausių dirbtinio intelekto apsaugos priemonių – pateikdamos pavyzdžius, kuriuos turėtų sekti kitos.
OpenAI Aardvark yra AI saugumo tyrinėtojas, kuris nuolat peržiūri kodą ir siūlo pataisymus, kad būtų galima išnaudoti nepažeidžiamumą.
Cisco Project CodeGuard yra atvirojo kodo sistema, kuri įtraukia saugaus kodavimo praktikas į darbo eigą ir padeda DI padėjėjams generuoti saugų kodą.
Singapūras sukūrė projektą „Moonshot“, atvirojo kodo sistemą, skirtą LLM testavimui nuo atakų nepalankiausiomis sąlygomis.
Siekdama paskatinti dirbtinio intelekto gynybą, JAV vyriausybė turi rodyti pavyzdį ir modernizuoti taisykles, kurios apsunkina gynybinių DI modelių mokymą. JAV vyriausybė yra didžiausia IT paslaugų pirkėja pasaulyje. Gynybos ir Tėvynės saugumo departamentai turėtų įdiegti DI gynybos sistemas ir įpareigoti tai daryti ir vyriausybinius rangovus. Viešųjų pirkimų galia gali paspartinti pritaikymą: jei norite parduoti programinę įrangą JAV kariuomenei, jūsų kodą turi patikrinti DI agentas. Ir jei kas nors turėtų būti apsaugota nuo kibernetinių atakų, tai turėtų būti programinė įranga, naudojama JAV karinėse operacijose.
DI nėra tobulas ir gali padaryti klaidų. Pentagonas ir DHS turėtų viešai dalytis savo duomenimis apie DI kibernetinį saugumą ir testavimo efektyvumą. Kibernetinės gynybos modelių mokymui ir automatizavimo naudojimui saugumo operacijose kelia iššūkį kai kurie reglamentai ir standartai, tokie kaip Sveikatos draudimo perkeliamumo ir atskaitomybės įstatymas, taip pat kai kurie JAV valstijų privatumo įstatymai ir Europos BDAR - bendrasis duomenų apsaugos reglamentas. BDAR reikalauja, kad dirbtinio intelekto sprendimus, turinčius didelį poveikį, prižiūrėtų žmogus, todėl pailgėja laikas, per kurį reikia užkirsti kelią pažeidimams, ypač tarpvalstybiniams. Užpuolikai nėra varžomi tokių apribojimų; gynėjai taip pat negali sau leisti būti varžomi.
DHS turėtų greitai sukurti savo DI informacijos dalijimosi ir analizės centrą, kad kovotų su kenkėjišku DI naudojimu. Nacionalinio standartų ir technologijų instituto centrai, padedantys JAV įmonėms sutrukdyti dirbtinio intelekto kibernetinėms atakoms, turėtų tapti pagrindine vieta įmonėms nuolat dalytis duomenimis ir tobulinti modelius, kad būtų išvengta besivystančių atakų technikų, atakų modeliavimo ir pažeidžiamumų šalinimo.
Pramonei reikia daugiau skaidrumo dėl DI modelių kibernetinio saugumo. Daugelis DI įmonių jau skelbia našumo reitingus pagal objektyvius rodiklius. Draudimo teikėjai galėtų padėti apdovanodami įmones, kurios taiko priimtą etaloną, mažesnėmis įmokomis.
JAV vyriausybė galėtų pateikti įrankius, padedančius įmonėms įgyvendinti geriausią kibernetinę praktiką. Naujieji NIST centrai galėtų apimti techninius mokymus įmonėms, taip pat forumus, skirtus savarankiško agento saugumui patikrinti kritiniuose tinkluose, pavyzdžiui, elektros sistemose.
Mes dalyvaujame ginklavimosi varžybose. Jei pasikliausime žmogaus greičio gynyba nuo mašinos greičio atakų, pralaimėsime. Turime sukurti, nuolat besimokančių, saugių gynybinių agentų tinklą, kuris galėtų aptikti, samprotauti ir reaguoti greičiau, nei bet kuris žmogus.
---
Ponia Neuberger yra vyresnioji Andreesseno Horowitzo patarėja ir išskirtinė kolega Stanforde. 2021–2025 m. ji dirbo Baltųjų rūmų patarėjo nacionalinio saugumo klausimais kibernetinių ir naujų technologijų klausimais pavaduotoja.” [1]
1. AI Can Help Defend Against Cyberattacks. Neuberger, Anne. Wall Street Journal, Eastern edition; New York, N.Y.. 20 Feb 2026: A15.
Komentarų nėra:
Rašyti komentarą