Sekėjai

Ieškoti šiame dienoraštyje

2025 m. sausio 27 d., pirmadienis

Skubėjimas karui pritaikyti dirbtinį intelektą kelia grėsmę nacionaliniam saugumui


  „Kariuomenės naudoja dirbtinio intelekto (A.I.) sistemas, kurios dažnai yra ydingos ir linkusios į klaidas, kad priimtų sprendimus,  į ką taikytis ir kaip tai padaryti.

 

 Pentagonas jau svarsto galimybę įtraukti A.I. į daugelį karinių užduočių, galinčių padidinti riziką ir įnešti naujų rimtų kibernetinio saugumo spragų. Ir dabar, kai Donaldas Trumpas pradėjo eiti pareigas, technologijų pramonė visu tempu žengia į priekį, siekdama integruoti A.I. produktų visoje gynybos sferoje, o tai gali padaryti pavojingą situaciją dar pavojingesne nacionaliniam saugumui.

 

 Pastaraisiais mėnesiais technologijų pramonės atstovai paskelbė apie daugybę naujų partnerysčių ir iniciatyvų integruoti A.I. technologijas į mirtinus ginklus. „OpenAI“, bendrovė, kuri saugą laiko pagrindiniu principu, paskelbė apie naują partnerystę su gynybos technologijų startuoliu „Anduril“, pažymėdama jos atėjimą į karinę rinką. „Anduril“ ir „Palantir“, duomenų analizės įmonė, derasi, kad sudarytų konsorciumą su grupe konkurentų, kurie bendrai siūlytų gynybos sutartis. Lapkričio mėnesį „Meta“ paskelbė apie susitarimus dėl savo A.I. modelių prieinamumo gynybos rangovams Lockheed Martin ir Booz Allen. Anksčiau šiais metais Pentagonas pasirinko A.I. paleisties masto A.I., padedanti išbandyti ir įvertinti didelius kalbų modelius įvairiais tikslais, įskaitant karinį planavimą ir sprendimų priėmimą. Michaelas Kratsiosas, kuris ėjo vyriausiojo technologijų pareigūno pareigas per pirmąją D. Trumpo kadenciją, o vėliau dirbo „Scale AI“ vykdomuoju direktoriumi, vėl tvarko prezidento technologijų politiką.

 

 Šalininkai teigia, kad A.I. pamatiniai modeliai – sistemos, parengtos, naudojant labai didelius duomenų telkinius ir galinčios atlikti įvairias bendrąsias užduotis, gali padėti Jungtinėms Valstijoms išlaikyti savo technologinį pranašumą.

 

 Be kita ko, tikimasi, kad, naudojant pamatų modelius kariams bus lengviau bendrauti su karinėmis sistemomis, nes bus pasiūlyta daugiau pokalbio, žmogiška, sąsaja.

 

 Tačiau kai kurie mūsų šalies gynybos lyderiai išreiškė susirūpinimą. Generolas Markas Milley neseniai, kalbėdamas Vanderbilto universitete, sakė, kad šios sistemos yra „dviašmenis kardas“, nes keliančios realius pavojus, papildomai prie galimos naudos. 2023 m. karinio jūrų laivyno vyriausioji informacijos pareigūnė Jane Rathbun sakė, kad komerciniai kalbų modeliai, tokie, kaip OpenAI GPT-4 ir Google Gemini, nebus paruošti kariniam naudojimui, kol saugumo kontrolės reikalavimai nebus „visiškai ištirti, nustatyti ir patvirtinti naudoti kontroliuojamoje aplinkoje“.

 

 JAV karinės agentūros anksčiau naudojo A.I. sistemos, sukurtos pagal Pentagono projektą Maven, skirtos nustatyti tolesnių ginklų smūgių Irake, Sirijoje ir Jemene taikinius. Šios sistemos ir jų analogai gali pagreitinti taikinių atrankos ir atakos procesą, naudojant vaizdo atpažinimą. Tačiau jie turėjo problemų dėl tikslumo ir gali sukelti didesnę klaidų galimybę.

 

 2021 m. atliktas vienos eksperimentinės taikinių atpažinimo programos bandymas atskleidė tik 25 procentų tikslumą, o tai yra ryškus kontrastas, palyginti su 90 procentų žadėtu tikslumu.

 

 Tačiau A.I. kibernetinio saugumo požiūriu pamatiniai modeliai kelia dar didesnį nerimą. Kaip žino dauguma žmonių, kurie žaidė su dideliu kalbos modeliu, pamatiniai modeliai dažnai „haliucinuoja“, tvirtina dalykus, kurių nėra, arba gamina nesąmones. Tai reiškia, kad jie gali rekomenduoti netinkamus tikslus. Dar blogiau, kadangi negalime patikimai numatyti ar paaiškinti jų elgesio, šias sistemas prižiūrintys karininkai gali nesugebėti atskirti teisingų rekomendacijų nuo klaidingų.

 

 Baziniai modeliai taip pat dažnai mokomi ir informuojami iš daugybės asmens duomenų, kurie gali apimti mūsų veidus, vardus ir net elgesio modelius. Priešininkai gali apgauti šias A.I. sąsajas kad jos atskleitų neskelbtinų duomenų, kurių jie mokomi.

 

 Remiantis plačiai prieinamais pagrindų modeliais, tokiais, kaip Meta's Llama ar OpenAI GPT-4, taip pat atsiranda kibernetinio saugumo pažeidžiamumų, sukuriant vektorius, per kuriuos priešiškos nacionalinės valstybės ir nesąžiningi veikėjai gali įsilaužti į sistemas, kuriomis remiasi mūsų nacionalinio saugumo aparatas, ir pakenkti joms. Priešininkai galėtų „nunuodyti“ duomenis, kuriais remiantis A.I. sistemos yra treniruojamos, panašiai, kaip nuodų piliulė, kurią suaktyvinus priešininkas gali manipuliuoti A.I. sistema, todėl ji elgiasi pavojingai. Negalite visiškai pašalinti šių pažeidžiamumų grėsmės iš esmės nepakeitę didelių kalbų modelių kūrimo, ypač karinio naudojimo kontekste.

 

 Užuot kovoję su šiomis galimomis grėsmėmis, Baltieji rūmai skatina visu greičiu į priekį. D. Trumpas jau panaikino Bideno administracijos paskelbtą vykdomąjį aktą, kuriuo buvo bandoma išspręsti šias problemas – tai rodo, kad Baltieji rūmai sumažins savo sektoriaus reguliavimą, o ne didins jį.

 

 Pripažįstame, kad tautos visame pasaulyje dalyvauja,  lenktynėse kuriant naujus A.I. pajėgumus; Kinijos mokslininkai neseniai išleido ChatBIT, modelį, pastatytą ant Meta A.I. modelio. Tačiau JAV neturėtų būti provokuojamos dalyvauti lenktynėse į dugną, bijodamos, kad atsiliksime. Norint rimtai atsižvelgti į šią riziką, reikia griežtai įvertinti karinį A.I. taikomosios programos, naudojant ilgalaikius saugos inžinerijos metodus. Siekiant užtikrinti, kad karinės A.I. sistemos yra pakankamai saugios, jas galiausiai reikės izoliuoti nuo komerciškai prieinamų A.I. modelių, o tai reiškia atskiro srauto kariniam A.I. ir sumažinti A.I. turimų galimai neskelbtinų duomenų kiekį, kai leidžiama įmonėms mokyti savo modelius.

 

 Siekiant viršenybės tariamose technologinėse ginklavimosi varžybose, būtų neprotinga nepastebėti rizikos, kurią dabartinis A.I. pasitikėjimas neskelbtinais duomenimis kelia nacionaliniam saugumui, arba nepaisyti pagrindinių techninių spragų. Jei mūsų lyderiai imsis savo planų įgyvendinti A.I. mūsų ypatingos svarbos infrastruktūros objektuose, jie gali pakenkti mūsų nacionaliniam saugumui. Vieną dieną mes to labai gailėsimės.

 

 Heidy Khlaaf yra vyriausioji A.I. politikos tyrimų centro „AI Now Institute“ mokslininkė. Sarah Myers West yra "AI Now Institute" vykdomoji direktorė.“ [1]

 

1. The Rush to A.I. Threatens National Security: Guest Essay. Khlaaf, Heidy; Sarah Myers West.  New York Times (Online) New York Times Company. Jan 27, 2025.

Komentarų nėra: