Taip, „Anthropic“ turi didelę konkurenciją iš Kinijos dirbtinio intelekto bendrovių, kuriančių dirbtinio intelekto įrankius, skirtus programinės įrangos klaidoms rasti ir kodui analizuoti. Kai kurie Kinijos konkurentai, kaip pranešama, veikia pramoniniu mastu, kad prilygtų Claude'o galimybėms arba jas imituotų.
Kinijos konkurencija ir kaltinimai dėl „distiliacijos“
2026 m. vasario mėn. „Anthropic“ apkaltino tris žinomas Kinijos dirbtinio intelekto laboratorijas – „DeepSeek“, „Moonshot AI“ ir „MiniMax“ – dalyvavimu „pramoninio masto“ kampanijose, siekiant pavogti jos „Claude“ modelio galimybes.
Metodas: Šios bendrovės tariamai naudojo dešimtis tūkstančių nesąžiningų paskyrų, kad bendrautų su Claude'u ir „distiliuotų“ arba išgautų jo samprotavimo ir kodavimo įgūdžius, taip sukurdamos tiesioginę konkurencinę grėsmę pačios „Anthropic“ technologijoms.
Dėmesys kodavimui: „Anthropic“ teigė, kad šios Kinijos bendrovės taikėsi į sritis, kuriose Claude'as laikomas lyderiu, ypač į kodavimą, agentinį samprotavimą ir įrankių naudojimą.
Pagrindiniai Kinijos konkurentai dirbtinio intelekto kodavimo / derinimo srityje
„DeepSeek“: plačiai minima kaip ryškiausia konkurentė, kurios „DeepSeek-R1“ (išleistas 2025 m. sausio mėn.) ir vėlesni modeliai prilygo JAV pramonės lyderių kodavimo našumui. Ji pripažinta už aukšto lygio samprotavimo ir kodavimo galimybes už nedidelę JAV modelių kainos dalį.
„Zhipu AI“ (Z.ai): išleido GLM-4.6 modelį, kuris parodė geresnius kodavimo gebėjimus ir yra pozicionuojamas kaip kodavimo agentų konkurentas.
„Alibaba Cloud“: jos „Qwen“ modeliai dažnai pasirodydavo pasaulinėse lyderių lentelėse kaip pagrindiniai „Anthropic“ ir „OpenAI“ konkurentai samprotavimo ir kodavimo srityse.
„ByteDance“: žinoma dėl savo „Doubao-Seed-Code“ asistento, kuris varžėsi dirbtinio intelekto kodavimo lyginamuosiuose testuose.
Kontekstiniai veiksniai
„Vibe Coding“ kovos: „Anthropic“ „Claude 3.5 Sonnet“ ir naujesnės versijos (pvz., „Mythos“) yra labai įgudusios derinimo srityje, tačiau Kinijos konkurentai, ypač per atvirojo kodo modelius, tam meta iššūkį, pažymima 2026 m. ataskaitoje.
DI kibernetinis šnipinėjimas: 2025 m. lapkričio mėn. incidento metu buvo nustatyti Kinijos valstybės remiami veikėjai, manipuliuojantys „Anthropic“ įrankiais („Claude Code“), kad atliktų kibernetines atakas. Tai rodo, kad šios grupės yra labai investavusios į pažangaus DI naudojimą programinės įrangos pažeidžiamumams nustatyti ir išnaudoti.
Efektyvumas ir kaina: Nors naujoji „Anthropic“ „Claude Mythos“ peržiūra sukurta tam, kad automatiškai rastų klaidas kritinėje programinėje įrangoje, Kinijos alternatyvos aktyviai siekia suteikti panašias „agentines“ galimybes, kurios gali ir rasti, ir ištaisyti klaidas, rodo naujausia DI analizė.
Kinų įrankių viešas išleidimas
„DeepSeek“ ir kiti: Kinijos įmonės istoriškai viešai išleido modelius ir API. Pavyzdžiui, „DeepSeek-R1“ (išleista 2025 m. sausio mėn.) ir mažesnės distiliuotos jo versijos yra atvirojo kodo ir plačiai prieinamos.
Trumpai tariant, nors „Anthropic“ ėmėsi iniciatyvos apribodama pavojingiausią savo klaidų paieškos modelį, Kinijos konkurentai panaikino našumo atotrūkį ir kai kuriais atvejais siūlo visuomenei prieinamesnius dirbtinio intelekto kodavimo įrankius.
"„Anthropic“ imasi veiksmų, kad apginkluotų kai kurias didžiausias pasaulio technologijų bendroves įrankiais, skirtais rasti ir ištaisyti klaidas jų aparatinėje ir programinėje įrangoje.
Bendrovė savo naujojo dirbtinio intelekto modelio, vadinamo „Mythos“, bandomąjį modelį pateikia maždaug 50 įmonių ir organizacijų, kurios prižiūri kritinę infrastruktūrą, įskaitant „Amazon“, „Microsoft“, „Apple“, „Alphabet“ priklausančią „Google“ ir „Linux Foundation“.
Kibernetinio saugumo tyrėjai ir programinės įrangos kūrėjai nerimauja, kad dirbtinis intelektas tampa toks geras išnaudodamas pažeidžiamumus, kad gali sukelti plataus masto sutrikimus internete. Saugumo ekspertai prognozuoja, kad dirbtinio intelekto modeliai atras programinės įrangos klaidų laviną, ir šios pastangos turėtų padėti įmonėms būti vienu žingsniu priekyje kibernetinių nusikaltėlių ir kitų grėsmių.
„Mythos“ pasirodė esanti tokia pajėgi atlikti potencialiai pavojingus dalykus, tokius kaip programinės įrangos klaidų paieška ir išnaudojimas, kad „Anthropic“ šiuo metu neplanuoja jo viešai išleisti, sakė Loganas Grahamas, „Anthropic“ „Frontier Red Team“, kuri vertina Claude'o riziką, vadovas. „Turime žinoti, kad galime jį išleisti saugiai, ir nėra visiškai aišku, kaip tai galime padaryti visiškai užtikrintai“, – sakė jis. sakė.
Per pastaruosius šešis mėnesius kibernetinio saugumo tyrėjai vis labiau nerimauja, kad dirbtinio intelekto sistemos ne tik geriau randa klaidas, bet ir trumpina laiką nuo klaidos atskleidimo iki jos panaudojimo veikiančia atakos programine įranga.
Praėjusių metų pabaigoje Stanfordo universiteto tyrėjai nustatė, kad dirbtinio intelekto programinė įranga beveik taip pat gerai, kaip ir žmonės, randa ir išnaudoja klaidas realiame tinkle.
O anksčiau šiais metais „Anthropic“ „Claude Opus 4.6“ modelis per dvi savaites „Firefox“ naršyklėje rado daugiau rimtų klaidų, nei įprastai per du mėnesius praneša likęs pasaulis.
Matuojant klaidos paieškos išlaidas, „Mythos“ yra maždaug 10 kartų efektyvesnis nei ankstesni dirbtinio intelekto modeliai, sakė Grahamas. „Mythos“ galimybių detales anksčiau pranešė „Fortune“.
Nors „Anthropic“ neplanuoja artimiausiu metu išleisti „Mythos“, kiti modeliai greičiausiai per ateinančius kelerius metus prilygs jos klaidų paieškos galimybėms, sakė Grahamas.
„Iš esmės turime pradėti ruoštis pasauliui, kuriame tarp atradimo ir išnaudojimo nebus jokio vėlavimo“, – sakė jis.“ [1]
1. Anthropic Previews Tools to Find Bugs. McMillan, Robert. Wall Street Journal, Eastern edition; New York, N.Y.. 08 Apr 2026: B4.
Komentarų nėra:
Rašyti komentarą