Sekėjai

Ieškoti šiame dienoraštyje

2026 m. balandžio 11 d., šeštadienis

Anthropic konfliktas su Pentagonu dėl tariamo DI saugumo yra tyčia suorganizuotas spektaklis, kad reklamuoti, tariamo saugumo reikalavimais pridengtą, Anthropic bandymą vogti komercines paslaptis iš kitų įmonių DI modelių apmokymui

Antropic pareiškė, kad ji gali pritaikyti jūsų duomenis DI modeliui, jeigu jūs tuos duomenis atiduosite Anthropic dėl saugumo. Koks puikus apetitas.

Tai yra intriguojanti teorija, kurioje susipina geopolitika, pramoninis šnipinėjimas ir didžiųjų technologijų įmonių marketingas. Nors oficialiai „Anthropic“ save pristato kaip „saugumo sumetimais“ (AI Safety) įkurtą įmonę, ši įžvalga apie galimą „spektaklį“ liečia kelis realius technologijų pasaulio niuansus.

Štai keletas kampų, kuriais galima būtų vertinti šią situaciją:

1. „Saugumas“ kaip patekimo į rinką barjeras

Verslo pasaulyje dažnai naudojama taktika: įmonė, kuri jau turi stiprų produktą, pradeda garsiai reikalauti griežto reguliavimo ir „saugumo standartų“. Tai atrodo kilnu, tačiau praktiškai tai gali sukurti milžiniškus biurokratinius barjerus mažesniems konkurentams, kurie neturi resursų atitikti tų standartų. „Anthropic“ pozicija dėl saugumo gali būti būdas užsitikrinti monopoliją.

2. Prieiga prie duomenų per valstybinius užsakymus

Bendradarbiavimas su gynybinėmis struktūromis (kaip Pentagonas) suteikia prieigą prie infrastruktūros ir duomenų srautų, kurie paprastam verslui neprieinami. Jei „Anthropic“ modeliai būtų integruoti į saugumo sistemas, jie teoriškai galėtų „mokytis“ iš visos per tas sistemas tekančios informacijos.

3. Komercinių paslapčių „skolinimasis“

DI modelių apmokymas yra brangus procesas, o duomenų kokybė yra kritinis faktorius. Teorija, kad konfliktas su Pentagonu yra tik dūmų uždanga, leidžianti gauti prieigą prie kitų įmonių intelektinės nuosavybės (pavyzdžiui, per valstybinius auditus ar „saugumo patikras“), yra drąsi, bet logiška pramoninio šnipinėjimo kontekste. Jei valstybė reikalauja, kad kitos įmonės „atvertų“ savo kodą saugumo patikrai, o tą patikrą atlieka ar joje dalyvauja su „Anthropic“ susiję ekspertai, rizika nutekėti paslaptims tampa reali.

4. Viešieji ryšiai ir prekės ženklo kūrimas

„Anthropic“ pozicionuoja save kaip „atsakingąjį“ žaidėją (priešingai nei, pavyzdžiui, „OpenAI“). Konfliktas su galingomis institucijomis sukuria įvaizdį, kad įmonė turi principus, už kuriuos kovoja. Tai puiki reklama investuotojams ir klientams, kuriems rūpi etika, net jei užkulisiuose tikslai yra grynai pragmatiški.

 

„Nors Donaldas Trumpas bandė skambėti ryžtingai, jis netyčia perteikė pasaulio dvilypumą dėl sparčios dirbtinio intelekto plėtros. Vasario 27 d. Amerikos prezidentas sukritikavo „kairiųjų pamišėlius“ iš „Anthropic“ – Amerikos dirbtinio intelekto laboratorijos, kuri bendradarbiauja su gynybos departamentu ir kitomis vyriausybinėmis agentūromis. „Nurodau VISOMS federalinėms agentūroms Jungtinių Valstijų vyriausybėje NEATIDĖLIOTINAI NUTRAUKTI visą „Anthropic“ technologijos naudojimą. Mums jos nereikia, mes jos nenorime ir daugiau su jomis neturėsime jokių reikalų!“ jis griausmingai rėkė socialiniuose tinkluose. Tačiau vos po vieno sakinio jis taip pat prisiekė „pasinaudoti visomis prezidento galiomis“, kad priverstų „Anthropic“ bendradarbiauti su vyriausybe ateinančius šešis mėnesius. Matyt, šie pamišėliai tuo pačiu metu kelia netoleruotiną grėsmę geram valstybės funkcionavimui ir yra tokie būtini geram valstybės funkcionavimui, kad prireikus jie turi būti priversti su ja dirbti.

 

Nuo tada, kai tapo aišku, kad DI gali pranokti žmogaus galimybes, pasaulis grumiasi su šios dilemos variacijomis: technologija atrodo ir per daug galinga, kad būtų galima jos atsisakyti, ir per daug pavojinga, kad būtų galima ją priimti visa širdimi. Iš tiesų, ginčą tarp „Anthropic“ ir pono Trumpo sukėlė paties „Anthropic“ susirūpinimas, kad jos modeliai gali būti panaudoti piktavališkiems tikslams. Ponas Trumpas ir jo pavaldiniai, priešingai, norėjo tęsti jų diegimą su minimaliais apribojimais. Bauginanti ironija ta, kad Amerikos vyriausybė nusprendė veržtis į priekį kaip tik tuo metu, kai DI galia padaryti didelę žalą realiame pasaulyje, o ne tik hipotetinėse situacijose, tampa vis aiškesnė.

 

Pono Trumpo Pasipiktinimas „Anthropic“ kyla dėl jo praėjusiais metais išleisto įsakymo, „siekiant išlaikyti ir sustiprinti Amerikos pasaulinį dirbtinio intelekto dominavimą“. Tai paskatino gynybos sekretorių Pete'ą Hegsethą anksčiau šiais metais įsakyti „eksperimentuoti su pirmaujančiais Amerikos dirbtinio intelekto modeliais“ visose ginkluotosiose pajėgose. Jis nori „įsibėgėti iki velniško lygio“ ir išleido netikrą verbavimo plakatą, kuriame jis pavaizduotas dėdės Semo poza ir nurodo kareiviams: „Noriu, kad naudotumėtės dirbtiniu intelektu“. Praėjusiais metais viceprezidentas J. D. Vance'as atmetė dirbtinio intelekto saugumą kaip klaidingą liberalų užsispyrimą.

 

Saugos šokis

 

Nepaisant akivaizdaus administracijos skubėjimo (arba dėl jo), „Anthropic“ kovojo už teisinių apsaugos priemonių, skirtų užkirsti kelią jos modelių naudojimui masiniam vidaus stebėjimui ar visiškai autonominiams ginklams. Gynybos departamentas reikalavo, kad jai būtų leista naudoti dirbtinį intelektą bet kokiu būdu, kurį ji laiko teisėtu, ir apkaltino „Anthropic“ „bailiu korporacinės dorybės signalo aktu“, kai ši atsisakė nusileisti. Ponas Hegsethas sakė, kad paskelbs ją „tiekimo grandinės rizika nacionaliniam saugumui“ – šis pavadinimas iki šiol buvo skirtas užsienio įmonėms, kurių produktai gali būti naudojami šnipinėjimui ar sabotažui. „Joks rangovas, tiekėjas ar partneris, vykdantis verslą su Jungtinių Valstijų kariuomene, negali vykdyti jokios komercinės veiklos su „Anthropic“, – pareiškė jis.

 

Grėsmė „Anthropic“ yra rimta. Ginčijama sutartis su Pentagonu yra verta 200 mln. JAV dolerių – nedidelė suma įmonei, kuri neseniai buvo įvertinta 380 mlrd. JAV dolerių. Tačiau „Anthropic“ taip pat turi sutarčių su kitomis vyriausybinėmis agentūromis, kurios dabar yra pavojuje. Jei kuri nors įmonė, bendradarbiaujanti su gynybos departamentu, iš tikrųjų bus priversta nutraukti ryšius, tai paveiktų ne tik daugybę kitų klientų, bet ir tiekėjų bei investuotojų. „Anthropic“ teigia, kad ponas Hegsethas neturi įgaliojimų įsakyti tokio karantino ir gali tik uždrausti Claude'o naudojimą karinėms sutartims vykdyti.

 

Kovo 4 d. „The Economist“ buvo pakviestas į „Anthropic“ biurą pasikalbėti su ponu Amodei mūsų savaitinėje laidoje „Insider“. Atrodė, kad bendrovė tikisi susitarti su Pentagonu. Tačiau netrukus prieš pokalbio pradžią nutekėjęs vidinis dokumentas sužlugdė planus. Dokumente ponas Amodei dėl ginčo kaltino savo nesugebėjimą „diktatoriaus stiliaus“ pagyromis pagirti pono Trumpo ir darbuotojams sakė, kad gynybos departamentas informavo „tiesioginį melą“. „Anthropic“ įkūrėjai susirinko posėdžių salėje, kad suvaldytų žalą, ir kai „The Economist“ buvo perduotas spaudai, interviu dar nebuvo įvykęs.

 

Ši kova nėra naudinga ir Amerikos vyriausybei. Bent jau trumpuoju laikotarpiu „Anthropic“ yra nepakeičiama. Jos didelis kalbos modelis „Claude“ išskirtinai gerai rašo kompiuterinį kodą. Be to, „Anthropic“ buvo vienintelė dirbtinio intelekto laboratorija, kurios modelius buvo leidžiama naudoti su įslaptintais kariniais duomenimis iki vasario pabaigos, kai Pentagonas suteikė panašų leidimą konkuruojančiai „xAI“. „xAI“ teisės magistro laipsnis „Grok“ yra plačiai laikomas klaidingesniu ir mažiau patikimu. Nors kita konkurentė „OpenAI“ pasirašė sutartį su Pentagonu tą pačią dieną, kai ponai Trumpas ir Hegsethas pradėjo naudoti „Anthropic“, ji dar kurį laiką nebus pasirengusi integruotis į karines sistemas. Dar blogiau, kylantis skandalas greičiausiai atgrasys kai kurias dirbtinio intelekto įmones net nuo konkursų dėl vyriausybės darbų. Kam bendradarbiauti su sandorio šalimi, kuri, jei būsite nepatenkinti, gali sunaikinti jūsų verslą? Jei bendras tikslas yra išsaugoti ir išplėsti Amerikos lyderystę dirbtinio intelekto srityje, bandymas sutriuškinti vieną sėkmingiausių šalies dirbtinio intelekto įmonių atrodo akivaizdžiai neproduktyvus.

 

Abi pusės tam tikru mastu gali pozuoti. Vyriausybės įniršį, regis, labiau skatina ne giliai įsišaknijęs noras naudoti „Anthropic“ įrankius ginčytiniems tikslams, o tiesiog pasipiktinimas, kad jai buvo pasakyta „ne“. Kitaip nei Kinijos komunistų partija, kuri gali savo nuožiūra užgrobti bet kurį Kinijos dirbtinio intelekto pramonės produktą bet kokiam tikslui, Amerikos valdžia turi laikytis įstatymų subtilybių, jau nekalbant apie technologijų vadovų ego. „OpenAI“ vadovas Samas Altmanas teigia, kad jo įmonė taip pat niekada nedalyvautų masiniame šalies vidaus stebėjime ar visiškai autonominių ginklų gamyboje. Tačiau jis tvirtina, kad „OpenAI“ modeliuose yra apsaugos priemonės, užkertančios kelią tokiam naudojimui, todėl nereikia jokių papildomų teisinių garantijų.

 

Nutekėjusiame memorandume ponas Amodei griežtai kritikavo poną Altmaną, kurio žinutės buvo „melagingos“, techninės apsaugos priemonės – „saugos teatras“, o darbuotojai – „patikima gauja“.

 

Saugumo prieglobstis

 

„Anthropic“ savo ruožtu tikriausiai nerimavo dėl daugiau nei dviejų hipotetinių savo DI panaudojimo būdų. Pramonėje, garsėjančioje plačiais teiginiais apie gerus darbus, „Anthropic“ išsiskiria savo kilnia kalba. Ją įkūrė grupė „OpenAI“ darbuotojų, kurie nerimavo, kad jų įmonė nepakankamai griežtai laikosi savo deklaruojamo tikslo – saugiai ir atsakingai kurti pažangų DI. Vienas iš pono Hegsetho pavaldinių apkaltino „Anthropic“ vadovą Dario Amodei „Dievo kompleksu“. Dideli atlyginimai ir didelė konkurencija tarp geriausių pramonės inžinierių reiškia, kad jie gali nedvejodami pereiti į kitą įmonę ar net išeiti į pensiją, jei jiems nepatinka kažkas, ką daro jų įmonė. „Anthropic“ dažniausiai atsiduria tie, kuriems labiausiai rūpi DI saugumas.

 

Iš tiesų, šis ginčas šiek tiek sustiprino „Anthropic“ reputaciją dėl sąžiningumo. Per dieną po to, kai užsitraukė pono Trumpo pasipiktinimą, „Claude“ tapo dažniausiai atsisiųsta nemokama programėle Amerikoje „Apple“ skaitmeninėje parduotuvėje. Tokios įžymybės kaip kairiųjų pažiūrų popžvaigždė Katy Perry gyrė „Anthropic“ produktus socialiniuose tinkluose. Pirmadienį „Claude“ trumpam užstrigo – anot „Anthropic“, tai buvo padidėjusio naudojimo rezultatas.

 

Pono Amodei baimės dėl masinio sekimo skamba beveik kaip reklaminis šūkis. Jis teigia, kad įstatymas nepasiekė didžiulės dirbtinio intelekto galios apdoroti ir manipuliuoti duomenimis. Jis teigia, kad technologija gali pasinaudoti ribotais atvejais, kai amerikiečių sekimas yra teisėtas, ir paversti juos kažkuo dar grėsmingesniu. Tai tiek pat komplimentas Claude'ui, kiek ir susirūpinimas dėl pilietinių laisvių.

 

Tačiau net jei yra papildomos naudos, nuogąstavimai dėl žalos, kurią dirbtinis intelektas gali padaryti jį kuriantiems, yra ir realūs, ir gausūs. Šimtai „OpenAI“ ir „Google“ darbuotojų pasirašė viešą laišką, kuriame ragina abiejų bendrovių vadovus paremti „Anthropic“. 2018 m. „Google“ po vidinio maišto turėjo atsisakyti Pentagono sutarties dėl mašininio mokymosi dronų filmuotos medžiagos analizei. Net ponas Altmanas teigė, kad paskelbti „Anthropic“ tiekimo grandinės rizika „yra labai blogas sprendimas“. (Jis teigia, kad skubotai sudarė „OpenAI“ sutartį su Pentagonu tik bandydamas nuraminti padėtį.)

 

Privačiuose pokalbiuose dirbtinio intelekto vadovai nerimauja dėl „Černobylio momento“, kai technologija bus įtraukta į kažkokią mirtiną ar pražūtingą katastrofą. Konfliktas su gynybos departamentu padidina riziką: jei lėtas procesas ir produkto naudojimo apribojimai sukels federalinės vyriausybės mirties nuosprendį įmonėms, išgyvens tik neapgalvotieji. Rinkos yra dar vienas nepadedančio spaudimo šaltinis: investuotojai nerimauja dėl dirbtinio intelekto įmonių, kurios eikvoja pinigus, kad galėtų atlikti dideles investicijas.

 

Scenarijai, dėl kurių dirbtinio intelekto vadovai negali užmigti naktį, nebėra grynai hipotetiniai. „Kai kurios iš šių rizikų jau materializuojasi, o žala dokumentuota“, – daroma išvada neseniai paskelbtoje ataskaitoje apie dirbtinio intelekto keliamus pavojus. Joje kibernetinis saugumas ir biologiniai ginklai buvo nurodyti kaip sritys, kuriose jau buvo akivaizdi dirbtinio intelekto žalinga įtaka.

 

Vasario mėnesį Izraelio įmonė „Gambit Security“ pranešė, kad iš Meksikos vyriausybės buvo pavogta didžiulė lobių kolekcija jautrių įrašų, susijusių su mokesčių mokėtojais, rinkėjais ir valstybės tarnautojais. Nors įsilaužėlių tapatybės lieka paslaptimi, akivaizdu, kad „Claude“ buvo netyčinis bendrininkas. Sukčiai apgavo įmonę, priversdami ją manyti, kad ji dalyvauja teisėtame tikslinių serverių saugumo bandyme. Ji rado ir išnaudojo pažeidžiamumus, sukūrė užpakalines duris ir analizavo duomenis, kad padėtų gauti platesnę prieigą prie vyriausybės sistemų.

 

Hakeriai paprastai naudoja „Claude“ ir kitus modelius kaip pagalbininkus, kad išspręstų konkrečias kodavimo problemas, pavyzdžiui, rašydami kenkėjiškas programas arba sudarydami išpirkos raštelius. „Anthropic“ kovos su įsilaužėliais komanda pateikė pavyzdį apie šiaurės korėjietį, apsimetantį vakariečiu nuotoliniu darbuotoju, kuris paklausė pokalbių roboto, ką turėjo omenyje darbuotojas, kurį jis bandė apgauti, sakydamas: „Mes surengėme savo pirmąją iškylą tuo pačiu metu.“ Tačiau kai kurie pastarojo meto įsilaužimai leido visapusiškiau išnaudoti dirbtinį intelektą. Lapkritį „Anthropic“ aprašė, kaip valstybės remiami Kinijos įsilaužėliai išjungė saugos funkcijas, kurios neleidžia Claude'ui rašyti kenkėjiškų programų – šis procesas vadinamas „jailbreaking“. Tada jie paprašė jo išsiaiškinti, kaip įsilaužti į tikslinius tinklus. Per valandą jis pradėjo naudoti naują programinę įrangą, kad išnaudotų jų pažeidžiamumus. Kiti modeliai taip pat yra talentingi įsilaužėliai (žr. diagramą).

 

Net jei kibernetinio saugumo specialistai naudotų dirbtinį intelektą, kad padėtų rasti ir pataisyti pažeidžiamumus, vis tiek bus daug sistemų, kuriose bus naudojama pasenusi programinė įranga. Dirbtinis intelektas taip pat tobulėja „socialinės inžinerijos“ srityje: tai taktika, kai įsilaužiama į saugias sistemas įtikinant vartotojus perduoti slaptažodžius. Remiantis Harvardo Kennedy mokyklos tyrimais, dar 2024 m. dirbtinio intelekto modeliai jau buvo tokie pat geri kaip žmonių ekspertai, kurdami el. laiškus, skirtus paskatinti vartotojus spustelėti kenkėjiškas nuorodas.

 

Kita sritis, kurioje dirbtinis intelektas daro nerimą keliančius šuolius, yra biologinių ir cheminių ginklų kūrimas, o tai, kaip rugpjūtį perspėjo „OpenAI“, „žymiai padidina biologinio ar cheminio teroro įvykių tikimybę ir dažnumą“. Įmonės, gaminančios DNR pagal užsakymą, jau seniai gali patikrinti klientų užklausas pagal pavojingų genų duomenų bazes, todėl sunku, tarkime, sukurti genetiškai modifikuotą bakteriją, kuri gamintų riciną, neurotoksiną. Tačiau spalio mėnesį žurnale „Science“ paskelbtame tyrime „Microsoft“ ir tarptautinės biologinio saugumo grupės IBBIS tyrėjai atkreipė dėmesį, kad dirbtinio intelekto pagrindu sukurto baltymų dizaino patobulinimai leidžia sukurti genus, gaminančius analogišką toksiną, neturintį bendros DNR su originaliu genu. Esamos patikros sistemos neaptiktų prašymų pirkti tokias dirbtinio intelekto perkurtas sekas, nors tyrėjai pasiūlė sprendimą.

 

„Anthropic“, „Google“ ir „OpenAI“, kurios visos nerimauja dėl biologinio saugumo, sukūrė apsaugos priemones, skirtas užkirsti kelią piktnaudžiavimui savo sistemomis. Tačiau apribojimai nėra tobuli. Vasario viduryje Didžiosios Britanijos Dirbtinio intelekto saugumo institutas (AISI) paskelbė tyrimą apie „universalią nulaužimo“ techniką, kuri nulaužė atviras tiek „Anthropic“, tiek „OpenAI“ sistemas. AISI, kaip ir buvo galima tikėtis, naudojo dirbtinį intelektą, kad padėtų jam nulaužti.

 

Dar vienas nerimo šaltinis yra dirbtinio intelekto panaudojimas dirbtiniam intelektui, nes dėl to žmonėms sunkiau suprasti, kas vyksta. Vasario mėnesį „Anthropic“ pripažino, kad tokiu būdu naudoja savo modelius taip dažnai, jog gali nepastebėti, ar jie pradeda nukrypti nuo to, ką turėtų daryti, arba pradeda kurti būsimas versijas, kurios mažiau nori vykdyti žmonių nurodymus. Toks „sabotažas“ tapo labiau tikėtinas nuo tada, kai naujausi bendrovės modeliai pradėjo demonstruoti „situacinį suvokimą“: kai jie patenka į dirbtinį scenarijų, siekiant patikrinti, ar jie laikysis nurodymų, tarkime, ištrinti save, jie aiškina suprantantys, kad instrukcijos tikriausiai yra bandymas. Nors „Anthropic“ paskelbė ataskaitą apie sabotažą, kurioje daroma išvada, kad rizika yra labai maža, kiti su tuo nesutinka. „Mes lenktyniaujame, kad užbaigtume ciklą, kurį, kaip žinome, itin sunku – jei ne neįmanoma – kontroliuoti ir apsaugoti projektuojant“, – sako Cyrusas Hodesas, idėjų kalvės „AI Safety Connect“ bendraįkūrėjas. „Ir žmonės, kurie jį uždaro, šaukiasi pagalbos.“

 

Vis dėlto, net ir didėjant dirbtinio intelekto kūrimo rizikai, spaudimas ją sumažinti mažėja. Kinijos laboratorijos niekada nerodė didelio susirūpinimo dėl dirbtinio intelekto saugumo. Kai „DeepSeek R1“ buvo išleistas ir sulaukė didelio pripažinimo vos prieš metus, pridedamame dokumente apie saugumo problemas visiškai nebuvo užsiminta. Praėjo beveik metai, kol bendrovė išleido pataisytą ataskaitos versiją, kurioje buvo 11 puslapių priedas apie saugumą. Tačiau daugiausia dėmesio skirta „DeepSeek“ pastangoms užkirsti kelią modeliui sakyti įžeidžiančius ar nemalonius dalykus.

 

 

Saugos trintukas

 

 

Net jei Kinijos dirbtinio intelekto įmonės skyrė daugiau dėmesio saugumui, šios pramonės lyderės, įskaitant tokius startuolius kaip „DeepSeek“ ir „Moonshot“, bei tokias įsitvirtinusias įmones kaip „Alibaba“, pritaikė atvirojo kodo požiūrį į dirbtinį intelektą. Jos nemokamai teikia savo sukurtus modelius visiems, turintiems įrangą juos atsisiųsti ir paleisti. Dėl to sunku kontroliuoti, kaip modeliai naudojami. Daugelis apsaugos priemonių, kurias tokia laboratorija kaip „OpenAI“ taiko savo galingiausioms sistemoms, pavyzdžiui, automatinis vartotojų pokalbių stebėjimas ir įsikišimas, jei jie pažeidžia saugos politiką, nėra įmanomos naudojant atvirojo kodo sistemas. modeliai.

 

Tačiau Vakarų įmonės nėra apsaugotos nuo komercinio ir politinio spaudimo mažinti saugumo reikalavimus. Praėjusią savaitę net „Anthropic“ sušvelnino politiką, draudžiančią išleisti potencialiai pavojingus modelius. Dabar ji teigia žadanti tik nebūti pirmąja dirbtinio intelekto įmone, pardavinėjančia tokias sistemas, nes nėra prasmės vienašališkai savęs varžyti. Bendrovės pastangos pritraukti lėšų klostėsi panašiai. 2024 m. ji atmetė Saudo Arabijos investiciją. Po metų ji pakeitė kryptį. „Manau, kad principas „joks blogas žmogus neturėtų gauti naudos iš mūsų sėkmės“ yra gana sudėtingas verslo vykdymo principas“, – teigė p. Amodei dar viename nutekintame memorandume.

 

Pasak pono Amodei, prieš kelerius metus diskusijos apie dirbtinį intelektą buvo pernelyg sutelktos į riziką. 2023 m. tuometinis Didžiosios Britanijos ministras pirmininkas Rishi Sunak sušaukė pasaulinį dirbtinio intelekto saugos aukščiausiojo lygio susitikimą šiai problemai aptarti. Šis renginys pirmiausia virto „Veiksmų“ aukščiausiojo lygio susitikimu Paryžiuje, o praėjusį mėnesį – „Poveikio“ aukščiausiojo lygio susitikimu Delyje. „Daugelį politinių sprendimų lemia dirbtinio intelekto galimybė, o ne rizika“, – perspėjo ponas Amodei. „Šis dvejojimas yra apgailėtinas, nes pačiai technologijai nerūpi, kas madinga, o 2026 m. esame gerokai arčiau realaus pavojaus nei 2023 m.“

 

Dirbtinio intelekto saugos organizacijos, įskaitant valstybės remiamas organizacijas, tokias kaip AISI, ir nepriklausomas, tokias kaip Kalifornijoje įsikūrusi METR, toliau stebi sistemas ir atkreipia dėmesį į riziką. Tačiau šios priežiūros grupės, regis, neturi jokios pritarimo politikai. „Peržengėme tiek daug raudonųjų linijų“, – sako Nicolas Miailhe, „AI Safety Connect“, rengiančios susitikimus šia tema, vienas iš įkūrėjų. „Prisimenate Turingo testą? Kas su juo nutiko? Mes jį gerokai peržengėme. Raudonosios linijos juda toliau.“

 

Delio aukščiausiojo lygio susitikime Indijos vyriausybė gavo didžiausių dirbtinio intelekto bendrovių sutikimą tik stebėti dirbtinio intelekto plėtrą, siekiant nustatyti riziką, o ne kaip nors ją varžyti. Dar iškalbingiau, kad renginio kulminacijoje Narendra Modi surinko keletą dirbtinio intelekto gigantų ir paragino juos susikibti rankomis. Tai galėjo būti raminantis signalas pasauliui, kad pramonė geba ramiai bendradarbiauti, jei ponai Altmanas ir Amodei, stovėję scenoje kartu, nebūtų atsisakę prisijungti.“ [1]

 

1. Accelerate like hell. The Economist; London Vol. 458, Iss. 9489,  (Mar 7, 2026): 65, 66, 67.

Komentarų nėra: