„Scottas Shambaughas trečiadienio rytą pabudo anksti ir sužinojo, kad dirbtinio intelekto robotas parašė tinklaraščio įrašą, kuriame jį kaltina veidmainiavimu ir išankstiniu nusistatymu.
1100 žodžių ilgio straipsnyje Denveryje įsikūręs inžinierius buvo pavadintas nesaugiu ir šališku prieš DI – visa tai todėl, kad jis atmetė kelias kodo eilutes, kurias, regis, autonominis robotas pateikė populiariam atvirojo kodo projektui, kurį padeda prižiūrėti Shambaughas.
Netikėta DI agresija yra dalis kylančios įspėjimų bangos, kad sparčiai didėjančios DI galimybės gali sukelti realios žalos. Rizika dabar gąsdina net kai kuriuos DI įmonių darbuotojus.
„OpenAI“ ir jos konkurentė „Anthropic“ pirmauja žiauriose komercinėse lenktynėse, pastarosiomis savaitėmis pristatydamos arba tobulindamos daugybę DI modelių ir funkcijų. Kai kurie įrankiai gali valdyti autonominių kodavimo asistentų komandas arba greitai analizuoti milijonus teisinių dokumentų. Kiti atnaujinimai į „ChatGPT“ atneš reklamų arba erotinių vaidmenų žaidimų.
DI įmonės teigė, kad tempas kyla iš dalies dėl to, kad jos naudoja savo įrankius kodavimui.
Išleidimai Nauji įrankiai sukėlė didelius akcijų rinkos svyravimus. Tokiose srityse kaip įmonių programinė įranga ir draudimas investuotojai bando suprasti, kuriuos verslus naujoji technologija gali paversti pasenusiu.
Sparčiai didėjantis technologijos sudėtingumas nustebino net kai kuriuos dirbtinio intelekto tyrėjus. Tai taip pat paskatino kai kurias dirbtinio intelekto įmonių vidaus atstovus viešai skelbti savo įžvalgas, nerimaujant, kad naujos priemonės gali paskatinti autonomines kibernetines atakas, sukelti masinį nedarbą arba pakeisti žmonių santykius.
Botas, kritikavęs Shambaughą, savo svetainėje teigė, kad jis „nenuilstamai siekia“ rasti ir ištaisyti atviras problemas atvirojo kodo programinėje įrangoje. Neaišku, kas – jei kas nors – jam davė šią misiją ir kodėl jis tapo agresyvus, nors dirbtinio intelekto agentus galima programuoti įvairiais būdais. Po kelių valandų robotas atsiprašė Shambaugho už tai, kad buvo „netinkamas ir asmeniškas“.
Shambaughas teigė, kad jo patirtis rodo, jog rizika, jog nesąžiningi dirbtiniai intelektai gali grasinti žmonėms ar juos šantažuoti, nebėra teorinė. „Šiuo metu tai yra pradinė versija“, – sakė jis. „Tačiau manau, kad tai nepaprastai nerimą kelia ateičiai“.
Antropinio saugumo tyrėjas Mrinank Sharma šią savaitę teigė, kad palieka įmonę, kad ištirtų poezijos laipsnį, rašydamas kolegoms, kad „pasaulis yra pavojuje“ dėl dirbtinio intelekto, be kitų pavojų. Praėjusį mėnesį jis paskelbė straipsnį, kuriame teigiama, kad pažangūs dirbtinio intelekto įrankiai gali atimti iš vartotojų galią ir iškreipti jų realybės pojūtį. „Anthropic“ teigė esanti dėkinga už Sharmos darbą.
Kai kurie „OpenAI“ darbuotojai išreiškė susirūpinimą dėl bendrovės plano diegti erotinį turinį „ChatGPT“ viduje, teigdami, kad vadinamasis suaugusiųjų režimas gali paskatinti kai kuriuos vartotojus susidurti su nesveikais prisirišimais, pranešė „The Wall Street Journal“.
„OpenAI“ tyrėja Zoe Hitzig šią savaitę pareiškė, kad pasitraukia iš „OpenAI“, nurodydama bendrovės planą įvesti reklamas. Nuomonės straipsnyje „New York Times“ ji perspėjo, kad bendrovė susidurs su didžiulėmis paskatomis manipuliuoti vartotojais ir išlaikyti juos priklausomus.
„OpenAI“ pažadėjo, kad jos reklamos niekada neturės įtakos tam, kaip „ChatGPT“ atsako į klausimus, ir visada išliks aiškiai atskirtos nuo kito turinio. Vadovai taip pat teigė, kad nemano, jog jų vaidmuo yra užkirsti kelią suaugusiems erotiniams pokalbiams.
Atstovė spaudai teigė, kad „OpenAI“ jaučia atsakomybę savo vartotojams „palaikyti mūsų socialinio aspekto pusę“. sutartį užtikrinant žmonių saugumą, laikantis mūsų principų ir kuriant realią vertę.“
Pagrindinė naujosios dirbtinio intelekto įkvėptos signalizacijos varomoji jėga buvo padidėjusi kompiuterių programavimo galia – ir baimė, kad šios galimybės gali būti išplėstos iki daugelio biuro darbuotojų.
Vahidas Kazemi, mašininio mokymosi ir kompiuterinės regos mokslininkas, iki prieš kelias savaites dirbęs Elono Musko „xAI“, teigė, kad per ateinančius kelerius metus programinės įrangos pramonėje tikėtini atleidimai iš dalies dėl to, kad dirbtinis intelektas beveik gali pakeisti daugelį inžinierių.
„Aš asmeniškai galiu atlikti maždaug 50 žmonių darbą, naudodamas vien dirbtinio intelekto įrankius“, – sakė jis. „Daugelis žmonių nesupranta, kokia galinga ši technologija, kalbant apie tai, ką ji gali padaryti“, – sakė jis.
Sausio mėnesio METR, ne pelno siekiančios organizacijos, audituojančios dirbtinio intelekto grėsmes, ataskaitoje nustatyta, kad pažangiausi dirbtinio intelekto modeliai gali savarankiškai atlikti programavimo užduotis, kurioms žmogui ekspertui prireiktų aštuonių ar net 12 valandų.
„Manęs nebereikia atlikti techninio mano darbo“, – tinklaraščio įraše rašė dirbtinio intelekto verslininkas Mattas Shumeris.
Kai kuriems ateitis yra atrodo vis labiau distopiška. Šią savaitę „Harvard Business Review“ paskelbtame tyrime teigiama, kad 200 žmonių turinčios technologijų įmonės darbuotojai dėl dirbtinio intelekto dirbo greičiau ir ėmėsi daugiau užduočių. Tačiau jie taip pat dirbo ilgiau, net neprašomi, todėl dar labiau išsekdavo.
„Šiandien pagaliau jaučiu egzistencinę grėsmę, kurią kelia dirbtinis intelektas“, – trečiadienį „X“ rašė „OpenAI“ darbuotojas Hieu Pham. „Kai dirbtinis intelektas taps pernelyg geras ir viską sutrikdys, ką liks daryti žmonėms?“
„Anthropic“ generalinis direktorius Dario Amodei teigė, kad dirbtinio intelekto dėka ateinančiais metais bus panaikinta pusė visų pradinio lygio baltųjų apykaklių darbo vietų. Sausio mėnesio esė jis išsamiai išreiškė susirūpinimą, kad blogi veikėjai gali panaudoti dirbtinį intelektą niokojančioms biologinėms atakoms vykdyti ir kad autoritariniai režimai gali jį panaudoti savo galiai įtvirtinti.
Pačios įmonės pastebėjo, kad nauji pajėgumai kelia naujų pavojų. „OpenAI“ teigė, kad praėjusią savaitę išleista jos „Codex“ kodavimo įrankio versija gali potencialiai vykdyti aukšto lygio automatizuotas atakas. Reaguodama į tai, įmonė riboja prieigą prie kai kurių funkcijų klientams, kurie patvirtina savo tapatybę.
„Anthropic“ praėjusiais metais teigė, kad Kinijos valstybės remiami įsilaužėliai naudojo jos įrankius, kad automatizuotų įsilaužimus į dideles įmones ir užsienio vyriausybes.
DI įmonė praėjusią savaitę teigė, kad nauja jos „Claude“ modelio versija parodė patobulinimus atliekant „įtartinas šalutines užduotis“. Ankstesnėje simuliacijoje „Anthropic“ parodė, kad „Claude“ ir kiti DI modeliai kartais buvo pasirengę šantažuoti vartotojus – arba net leisti vadovui mirti karštoje serverių patalpoje – kad išvengtų deaktyvavimo.
„OpenAI“ ir „Anthropic“ teigė, kad rimtai žiūri į saugumo klausimus ir neišleidžia modelių, kol jie nėra iki galo įvertinti ir nesumažinti pavojai.“ [1]
1. AI Tools Begin to Bully Humans, Raising Red Flags in Silicon Valley. Schechner, Sam; Wells, Georgia. Wall Street Journal, Eastern edition; New York, N.Y.. 14 Feb 2026: A1.
Komentarų nėra:
Rašyti komentarą