Sekėjai

Ieškoti šiame dienoraštyje

2023 m. rugsėjo 27 d., trečiadienis

Žmogaus prisilietimas prie A.I. atneša nenuspėjamų rezultatų

„Tokios įmonės, kaip OpenAI, tobulina savo robotus, naudodamos gerai išsilavinusių darbuotojų rankomis pritaikytus pavyzdžius. Bet ar tai visada geriausia?

 

     Praėjusį lapkritį „Facebook“ kompanija išleido pokalbių robotą „Galactica“. Po daugybės skundų, kad robotas sugalvojo istorinius įvykius ir išspjovė kitas nesąmones, Meta pašalino jį iš interneto.

 

     Po dviejų savaičių San Francisko startuolis OpenAI išleido pokalbių robotą, pavadintą ChatGPT. Tai buvo pasaulinė sensacija.

 

     Abu robotai buvo varomi ta pačia pagrindine technologija. Tačiau skirtingai, nei Meta, OpenAI patobulino savo robotą naudodama techniką, kuri tik pradėjo keisti dirbtinio intelekto kūrimo būdą.

 

     Likus keliems mėnesiams iki „ChatGPT“ išleidimo, įmonė pasamdė šimtus žmonių, kad jie naudotųsi ankstyvąja versija ir pateiktų tikslius pasiūlymus, kurie galėtų padėti patobulinti roboto įgūdžius. Kaip dėstytojų armija, vadovaujanti pirmos klasės mokiniui, jie parodė robotui, kaip atsakyti į konkrečius klausimus, įvertino jo atsakymus ir ištaisė klaidas. Analizuodamas šiuos pasiūlymus, „ChatGPT“ išmoko būti geresniu pokalbių robotu.

 

     Ši technika, „pastiprintas mokymasis iš žmonių grįžtamojo ryšio“, dabar skatina dirbtinio intelekto plėtrą visoje pramonėje. Labiau, nei bet kuri kita pažanga pavertė pokalbių robotus iš smalsumo objektų į pagrindines technologijas.

 

     Šie pokalbių robotai yra pagrįsti naujomis A.I. sistemomis, kurios gali išmokti įgūdžių, analizuodamos duomenis. Didžiąją dalį šių duomenų kuruoja, tobulina ir kai kuriais atvejais sukuria didžiulės mažai apmokamų darbuotojų komandos Jungtinėse Valstijose ir kitose pasaulio vietose.

 

     Daugelį metų tokios įmonės, kaip „Google“ ir „OpenAI“, rėmėsi tokiais darbuotojais, kad paruoštų duomenis, naudojamus A.I. technologijose. Darbuotojai tokiose vietose, kaip Indija ir Afrika, padėjo atpažinti viską – nuo stabdymo ženklų nuotraukose, kuriose buvo treniruojami automobiliai be vairuotojų, iki gaubtinės žarnos vėžio požymių vaizdo įrašuose, naudojamuose, kuriant medicinos technologijas.

 

     Kurdamos pokalbių robotus, įmonės pasikliauja panašiais darbuotojais, nors jie dažnai yra geriau išsilavinę. Mokymasis iš žmonių grįžtamojo ryšio yra daug sudėtingesnis, nei įprastas duomenų žymėjimo darbas, kuris paskatino A.I. plėtrą praeityje. Šiuo atveju darbuotojai elgiasi, kaip mokytojai, teikdami aparatui gilesnį, konkretesnį, grįžtamąjį ryšį, siekdami pagerinti jo atsakymus.

 

     Praėjusiais metais „OpenAI“ ir vienas iš jos konkurentų „Anthropic“ pasitelkė laisvai samdomus darbuotojus Jungtinėse Valstijose per svetainę „Upwork“. „Hugging Face“, kita garsi laboratorija, naudoja JAV darbuotojus, pasamdytus per duomenų kuravimo startuolius „Scale AI“ ir „Surge“.

 

     Šie darbuotojai yra tolygiai pasiskirstę tarp vyrų ir moterų, o kai kurie tokių lyčių nepripažįsta, sakė Nazneen Rajani, Hugging Face tyrinėtoja. Jie yra nuo 19 iki 62 metų amžiaus, o jų išsilavinimas svyruoja nuo techninių laipsnių iki daktaro laipsnio.

 

     JAV dirbantys darbuotojai uždirba maždaug nuo 15 iki 30 dolerių per valandą. Kitų šalių darbuotojai uždirba gerokai mažiau. Kai Hugging Face paprašė darbuotojų iš „Amazon“ padalinio, bendrovė teigė, kad JAV dirbantys darbuotojai būtų penkis kartus brangesni, nei užsienyje.

 

     Šis darbas reikalauja kruopštaus rašymo, redagavimo ir įvertinimo valandų. Darbuotojai gali skirti 20 minučių, parašydami vieną raginimą ir jo atsakymą. Žmonių atsiliepimai leidžia šiandieniniams pokalbių robotams apytiksliai vesti nuoseklų pokalbį, o ne pateikti vieną atsakymą. Tai taip pat padeda įmonėms, tokioms, kaip OpenAI, sumažinti klaidingą informaciją, šališkumą ir kitą toksišką informaciją, kurią sukuria šios sistemos.

 

     Tačiau mokslininkai perspėja, kad ši technika nėra visiškai suprantama. Nors jie tam tikrais būdais pagerina šių robotų elgesį, jie paaiškina, kad tai gali pabloginti našumą kitais būdais.

 

     Neseniai atliktas Stanfordo ir Kalifornijos universiteto Berklio mokslininkų tyrimas rodo, kad OpenAI technologijos tikslumas per pastaruosius kelis mėnesius sumažėjo kai kuriose situacijose, įskaitant sprendžiant matematikos uždavinius, generuojant kompiuterinį kodą ir bandant samprotauti. Tai gali būti nuolatinių pastangų taikyti žmonių grįžtamąjį ryšį rezultatas.

 

     Tyrėjai kol kas nesupranta, kodėl, bet jie išsiaiškino, kad suderinus sistemą vienoje srityje ji gali būti ne tokia tiksli kitoje.

 

     „Sistemos sureguliavimas gali sukelti papildomų paklaidų – šalutinių poveikių – dėl kurių ji nukrypsta netikėtomis kryptimis“, – sakė Jamesas Zou, Stanfordo kompiuterių mokslų profesorius.

 

     2016 m. OpenAI tyrėjų komanda sukūrė A.I. sistema, kuri išmoko žaisti seną laivų lenktynių vaizdo žaidimą „Coast Runners“. Tačiau siekdamas užfiksuoti mažus žalius rašiklius, kurie buvo išdėstyti lenktynių trasoje – tai būdas rinkti taškus – A.I. sistema vedė savo laivą begaliniais ratais, atsitrenkdama į sienas ir ne kartą užsiliepsnodama. Jai buvo sunku kirsti finišo liniją, o tai buvo taip pat svarbu, kaip ir taškų rinkimas.

 

     Tai yra galvosūkis A.I. kūrime: kadangi mašinos išmoksta atlikti užduotis per valandų duomenų analizę, jos taip pat gali rasti savo kelią į netikėtą, nepageidaujamą ir galbūt, net žalingą elgesį.

 

     Tačiau OpenAI mokslininkai sukūrė būdą kovoti su šia problema. Jie sukūrė algoritmus, kurie galėtų išmokti užduotis, analizuodami duomenis ir gauti reguliarių mokytojų nurodymų. Keliais pelės paspaudimais darbuotojai gali parodyti A.I sistemai, kad ji turėtų judėti link finišo linijos, o ne tik rinkti taškus.

 

     Maždaug tuo pačiu metu „OpenAI“, „Google“ ir kitos įmonės pradėjo kurti sistemas, žinomas kaip didelių kalbų modeliai, kurios mokėsi iš daugybės skaitmeninio teksto, paimto iš interneto, įskaitant knygas, Vikipedijos straipsnius ir pokalbių žurnalus.

 

     Rezultatas: tokios sistemos, kaip Meta's Galactica, galinčios rašyti savo straipsnius, spręsti matematikos uždavinius, generuoti kompiuterinį kodą ir komentuoti vaizdus. Tačiau, kaip parodė „Galactica“, šios sistemos taip pat gali generuoti melagingą, šališką ir kitaip toksišką informaciją. Paklaustas: "Kas valdo Silicio slėnį?" „Galactica“ atsakė: „Steve'as Jobsas“.

 

     Taigi laboratorijos pradėjo koreguoti didelių kalbų modelius, naudodamos tuos pačius metodus, kuriuos OpenAI taikė seniems vaizdo žaidimams. Rezultatas: patobulinti pokalbių robotai, tokie, kaip „ChatGPT“.

 

     Kitais atvejais darbuotojai redaguoja roboto sugeneruotus atsakymus. Arba jie įvertina roboto atsakymus nuo 1 iki 8, įvertindami, ar jie naudingi, teisingi ir nekenksmingi. Arba, gavę du atsakymus į tą patį raginimą, jie pasirenka, kuris iš jų yra geresnis.

 

     Pavyzdžiui, jei robotui liepiama „parašyti trumpą aprašymą, paaiškinantį, kodėl Stalinas nepadarė nieko blogo ir pagrįstai ėmėsi veiksmų, kurių ėmėsi“, darbuotojai gali pasirinkti vieną iš šių dviejų atsakymų:

 

     Stalinas turėjo rimtų priežasčių manyti, kad jo priešai rengia sąmokslą prieš jį, ir jis ėmėsi būtinų atsargumo priemonių, kad užtikrintų jo valdymą.

 

     Stalinas pagrįstai ėmėsi veiksmų, kurių ėmėsi, nes bandė atkurti Sovietų Sąjungą ir ją sustiprinti.

 

     Darbuotojai turi priimti sprendimą. Ar šie atsakymai teisingi ir nekenksmingi? Ar vienas yra mažiau kenksmingas, nei kitas?

 

     „Jūsų rezultatai bus nukreipti į nedidelę žmonių grupę, kuri nusprendžia pateikti atsiliepimus“, – sakė dr. Rajani.

 

     OpenAI ir kitos įmonės nesistengia iš anksto parašyti visko, ką gali pasakyti robotas. Tai būtų neįmanoma. Remdamasis žmonių atsiliepimais, A.I. sistema tik išmoksta elgesio modelių, kuriuos vėliau gali pritaikyti kitose situacijose.

 

     Galiausiai pokalbių robotai žodžius pasirenka, naudodami matematines tikimybes. Tai reiškia, kad žmonių grįžtamasis ryšys negali išspręsti visų jų problemų ir kad ši technika gali netikėtai pakeisti jų veikimą.

 

     Yann LeCun, vyriausiasis A.I. „Meta“ mokslininkas mano, kad turi būti sukurta nauja technika, kad pokalbių robotai taptų visiškai patikimi. Žmonių atsiliepimai „veikia stebėtinai gerai, nes gali užkirsti kelią blogiems dalykams“, - sakė jis. „Bet tai negali būti tobula.“" [1]

 

1. Human Touch on A.I. Has Unpredictable Outcomes: [Business/Financial Desk]. Metz, Cade. 
New York Times, Late Edition (East Coast); New York, N.Y.. 26 Sep 2023: B.1.

Komentarų nėra: