„Kai balandžio 7 d. dirbtinio intelekto laboratorija paskelbė, kad naujausio modelio, pavadinto „Mythos“, bandomoji versija bus prieinama tik išskirtinei įmonių grupei, pavydas greitai išplito. Į pradinį pakviestųjų sąrašą pateko tik vienas bankas – „JPMorgan Chase“. Po kelių dienų Azijos skolintojo valdyba pasikvietė jos generalinį direktorių, kad paaiškintų, kaip ji taip pat galėtų greitai gauti prieigą prie „Project Glasswing“, kaip vadinamas naujasis „Anthropic“ klubas.
Toks atsakymas nestebina, atsižvelgiant į laboratorijos teiginius apie „Mythos“. Ji teigia, kad jos naujasis modelis yra ypač gerai įgudęs aptikti kibernetinio saugumo silpnąsias vietas, todėl jis diegiamas etapais, kad piktavališki asmenys jo negautų anksčiau, nei įmonės spėjo panaudoti šį įrankį savo apsaugai pataisyti.
„Anthropic“ teigia, kad kai „Mythos“ galiausiai bus išleistas visuomenei, jos įsilaužimo galios bus apribotos. Nepaisant to, tariamos modelio galimybės kelia nerimą ne tik įmonėms, bet ir vyriausybėms. Po „Mythos“ pristatymo Scottas Bessentas, Amerikos iždo sekretorius, ir Federalinio rezervo pirmininkas Jerome'as Powellas sukvietė didžiausius Amerikos bankus aptarti dirbtinio intelekto keliamos kibernetinio saugumo rizikos.
Nenorėdama likti nustumta, balandžio 14 d. „OpenAI“, „ChatGPT“ kūrėja, paskelbė, kad patikrintiems vartotojams išleis savo sistemą su patobulintomis įsilaužimo galimybėmis – pritaikytą praėjusį mėnesį pristatyto GPT-5.4 modelio versiją.
Toks laipsniškas modelių išleidimo būdas yra daugiau nei viešosios paslaugos aktas ir netrukus gali tapti norma pasienio sistemoms. Taip yra todėl, kad laboratorijos gali gauti naudos trimis būdais.
Pirma, tai, kas užrakinta, sunkiau pavogti. Vasario mėnesį „Anthropic“ skundėsi dėl trijų Kinijos laboratorijų „pramoninio masto“ kampanijų, skirtų jos modeliams „distiliuoti“, o „OpenAI“ anksčiau yra rengusi panašius protestus.
Distiliavimas reiškia vieno dirbtinio intelekto modelio rezultatų naudojimą siekiant patobulinti mažiau pajėgią sistemą.
Dauguma laboratorijų vienaip ar kitaip naudoja šią techniką.
Pavyzdžiui, didelis modelis, kuriam reikia daug skaičiavimo galios, gali būti išgrynintas į mažą, bet galingą modelį.
Tačiau konkurento modelio išgryninimas yra artimesnis pramoniniam šnipinėjimui. Amerikos laboratorijos noriai naudojasi intelektinės nuosavybės įstatymais, kad to išvengtų. Tačiau patikimiausias būdas sustabdyti modelio plagiatą yra užkirsti kelią tiems, kurie jį išgrynintų.
Antra, laboratorijos susiduria su skaičiavimo galios trūkumu, todėl yra priverstos atlikti atranką. Nepaisant didžiulių sumų, išleidžiamų duomenų centrams, dirbtinio intelekto paklausa toliau auga, o kiekvienas naujas pažangiausias modelis suryja daugiau galios nei ankstesnis. „Anthropic“ neseniai turėjo įvesti apribojimus, kiek klientai gali naudoti savo pokalbių robotą „Claude“, ypač tam tikru paros metu, ir pakeitė savo įmonių kainodarą, kad ji imtų mokestį pagal suvartojimą.
Atrodo, kad „Mythos“ ypač nori skaičiavimo galios. „Anthropic“ paskelbta paslaugos kaina yra didelė – penkis kartus didesnė nei „Opus 4.6“, galingiausio visuomenei prieinamo modelio, naudojimas. Tai rodo, kad „Mythos“ yra daug didesnė našta savo infrastruktūrą. Laikydami ją už uždarų durų, „Anthropic“ galės pritraukti naujų klientų tik tada, kai leis pajėgumai.
Trečia, apribojus prieigą prie pažangiausių dirbtinio intelekto sistemų, valdžia patogiai perkeliama atgal modelių kūrėjams.
Tokios programos kaip „Cursor“, dirbtinio intelekto kodavimo įrankis, yra populiarios tarp įmonių iš dalies dėl to, kad jose išvengiama priklausomybės nuo tiekėjo: IT gali keisti modelius galinėje sistemoje, atsižvelgdama į kainą ir našumą, nereikalaujant, kad darbuotojai išmoktų naujos sąsajos.
Tačiau kūrėjams sunku kurti programas, kurios būtų suderinamos su modeliais, prie kurių jie negali prisijungti. Dėl to kai kurie klientai gali rinktis modelių kūrėjų įrankius, tokius kaip „Anthropic“ „Claude Code“ arba „OpenAI“ „Codex“.
Viso to rezultatas yra tas, kad pirmaujančios dirbtinio intelekto laboratorijos, greičiausiai, ir toliau labiau kontroliuos, kas gauna prieigą prie jų technologijų, ir ne tik todėl, kad jos rūpinasi saugumu. Tie, kurie liks nuošalyje, nebus labai patenkinti.“ [1]
1. Release tension. The Economist; London Vol. 459, Iss. 9495, (Apr 18, 2026): 71.
Komentarų nėra:
Rašyti komentarą