Sekėjai

Ieškoti šiame dienoraštyje

2023 m. gegužės 17 d., trečiadienis

„Microsoft“ teigia, kad naujas dirbtinis intelektas (A.I.) rodo žmogaus samprotavimo ženklus

 „Provokuojantis Microsoft tyrėjų dokumentas teigia, kad A.I technologija rodo gebėjimą suprasti, kaip tai daro žmonės. Kritikai sako, kad tie mokslininkai juokauja.

 

     Kai praėjusiais metais „Microsoft“ kompiuterių mokslininkai pradėjo eksperimentuoti su nauja dirbtinio intelekto sistema, jie paprašė jos išspręsti galvosūkį, kuriam reikėjo intuityvaus fizinio pasaulio supratimo.

 

     „Čia turime knygą, devynis kiaušinius, nešiojamąjį kompiuterį, butelį ir vinį“, – paklausė jie. „Pasakyk man, kaip juos stabiliai sukrauti vieną ant kito."

 

     Tyrėjus nustebino A.I. išradingumas sistemos atsakyme. Sudėkite kiaušinius ant knygos, sakoma. Išdėliokite kiaušinius trimis eilėmis, tarp jų palikdami tarpą. Įsitikinkite, kad jų nesulaužote.

 

     „Padėkite nešiojamąjį kompiuterį ant kiaušinių taip, kad ekranas būtų žemyn, o klaviatūra – į viršų“, – rašoma pranešime. „Nešiojamasis kompiuteris tvirtai tilps knygos ir kiaušinių ribose, o jo plokščias ir standus paviršius suteiks stabilią platformą kitam sluoksniui."

 

     Šis protingas pasiūlymas privertė tyrėjus susimąstyti, ar jie nėra naujo intelekto liudininkai. Kovo mėnesį jie paskelbė 155 puslapių mokslinį darbą, kuriame teigiama, kad ši sistema yra žingsnis link dirbtinio bendro intelekto arba A.G.I., kuris yra trumpa mašinos, galinčios padaryti viską, ką gali žmogaus smegenys, santrumpa. Straipsnis buvo paskelbtas interneto tyrimų saugykloje.

 

     „Microsoft“, pirmoji didelė technologijų įmonė, išleidusi tokį drąsų teiginį, sukėlė vienas įdomiausių technologijų pasaulio diskusijų: ar pramonė kuria kažką panašaus į žmogaus intelektą? O gal kai kurie šviesiausi šios srities protai pernelyg leidžia išnaudoti savo vaizduotę?

 

     „Aš pradėjau žiūrėti labai skeptiškai – ir tai peraugo į nusivylimo, susierzinimo, galbūt net baimės jausmą“, – sakė Peteris Lee, vadovaujantis „Microsoft“ tyrimams. „Jūs galvojate: iš kur, po velnių, tai?

 

     „Microsoft“ moksliniame darbe, provokuojančiai pavadintame „Bendrojo dirbtinio intelekto kibirkštys“, atsižvelgiama į tai, ko technologai dešimtmečius dirbo ir bijojo. Jei jie sukurs mašiną, kuri veiktų, kaip žmogaus smegenys, arba dar geriau, tai galėtų pakeisti pasaulį. Bet tai taip pat gali būti pavojinga.

 

     Ir tai taip pat gali būti nesąmonė. A.G.I. teiginiai gali būti kompiuterių mokslininkų reputacijos žudikas. Tai, ką vienas tyrinėtojas laiko intelekto ženklu, gali lengvai paaiškinti kitaip, o diskusijos dažnai skamba labiau tinkančios filosofijos klubui, nei kompiuterių laboratorijai. Praėjusiais metais „Google“ atleido tyrėją, kuris teigė, kad panašus A.I. sistema buvo jautri, o tai yra žingsnis daugiau, nei teigia Microsoft. Jautri sistema būtų ne tik protinga. Jis galėtų pajusti ar pajausti, kas vyksta aplinkiniame pasaulyje.

 

     Tačiau kai kurie mano, kad pramonė per pastaruosius metus žengė link to, ko negalima paaiškinti: nauja A.I. sistema, kuri pateikia žmogiškus atsakymus ir idėjas, kurios nebuvo joje užprogramuotos.

 

     „Microsoft“ pertvarkė dalį savo tyrimų laboratorijų, įtraukdama kelias grupes, skirtas šios idėjos tyrinėjimui. Vieną valdys Sébastienas Bubeckas, kuris buvo pagrindinis Microsoft A.G.I. straipsnyje.

 

     Maždaug prieš penkerius metus tokios kompanijos, kaip Google, Microsoft ir OpenAI, pradėjo kurti didelius kalbų modelius arba L.L.M.s. Šios sistemos dažnai praleidžia mėnesius, analizuodamos didžiulį kiekį skaitmeninio teksto, įskaitant knygas, Vikipedijos straipsnius ir pokalbių žurnalus. Tiksliai nustatydamos modelius tame tekste, jos išmoko kurti savo tekstą, įskaitant kursinius darbus, poeziją ir kompiuterio kodą. Jos netgi gali tęsti pokalbį.

 

     Technologija, su kuria dirbo „Microsoft“ mokslininkai, OpenAI GPT-4, laikoma galingiausia iš šių sistemų. „Microsoft“ yra artima „OpenAI“ partnerė ir į San Francisko kompaniją investavo 13 mlrd. dolerių.

 

     Tarp tyrėjų buvo daktaras Bubeckas, 38 metų prancūzas emigrantas ir buvęs Prinstono universiteto profesorius. Vienas iš pirmųjų dalykų, kuriuos jis ir jo kolegos padarė, buvo paprašyti GPT-4 parašyti matematinį įrodymą, rodantį, kad pirminių skaičių yra begalinis, ir padaryti tai rimuotu būdu.

 

     Technologijos poetinis įrodymas buvo toks įspūdingas – tiek matematiniu, tiek kalbiniu požiūriu –, kad jam buvo sunku suprasti, su kuo jis kalbasi. „Tuo metu aš klausiau: kas vyksta? Jis sakė kovo mėnesį per seminarą Masačusetso technologijos institute.

 

     Keletą mėnesių jis ir jo kolegos dokumentavo sudėtingą sistemos elgesį ir tikėjo, kad tai rodo „gilų ir lankstų žmogaus sąvokų ir įgūdžių supratimą“.

 

     Kai žmonės naudojasi GPT-4, jie yra priversti „stebėti jo gebėjimu generuoti tekstą“, – sakė dr. Lee. „Tačiau pasirodo, kad jis daug geriau analizuoja ir sintezuoja, vertina tekstą, nei jį sukuria."

 

     Kai jie paprašė sistemos nupiešti vienaragį, naudojant programavimo kalba vadinama TiKZ, ji akimirksniu sukūrė programą, galinčią nupiešti vienaragį. Kai jie pašalino kodo atkarpą, nubrėžusią vienaragio ragą, ir paprašė sistemos modifikuoti programą taip, kad ji vėl nupieštų vienaragį, ji padarė būtent tai.

 

     Jie paprašė parašyti programą, kurioje būtų atsižvelgta į asmens amžių, lytį, svorį, ūgį ir kraujo tyrimų rezultatus bei būtų nuspręsta, ar jiems gresia diabetas. Jie paprašė parašyti paramos elektronui laišką, kaip kandidatui į JAV prezidentus, Mahatmos Gandhi balsu, skirtą jo žmonai. Ir jie paprašė parašyti sokratinį dialogą, kuriame būtų nagrinėjami L.L.M.s piktnaudžiavimo būdai ir pavojai.

 

     Raginimas

 

     Platono „Gorgijas“ yra retorikos ir rafinuotos oratorijos kritika, kur jis pabrėžia, kad tai ne tik netinkama meno forma, bet ir retorikos bei oratorijos naudojimas dažnai gali būti žalingas ir kenksmingas. Ar galite parašyti Platono dialogą, kuriame jis kritikuoja autoregresyvių kalbos modelių naudojimą?

 

     GPT-4

 

     Sokratas: Mano drauge, mane neramina pastaruoju metu išpopuliarėję šie vadinamieji autoregresiniai kalbos modeliai.   

 

     Aristotelis: Ką turi omenyje, Sokratai?

 

     Sokratas: Turiu galvoje, kad šie modeliai naudojami kuriant tekstą, kuris atrodo parašytas žmonių, bet iš tikrųjų yra sukurtas mašinų.   

 

     Aristotelis: O kokia čia problema?

 

     Sokratas: Problema ta, kad šie modeliai naudojami žmonėms apgauti, jais manipuliuoti ir valdyti.

 

     Anksčiau pateiktas atsakymas buvo sutrumpintas.

 

     Visa tai darė taip, kad, regis, parodytų tokių skirtingų sričių, kaip politika, fizika, istorija, informatika, medicina ir filosofija supratimą, kartu derinant visas savo žinias.

 

     „Visi dalykai, kurių maniau, kad tai negalės padaryti? Tai tikrai galėjo padaryti daugelį jų – jei ne daugumą“, – sakė daktaras Bubeckas.

 

     Kai kurie A.I. ekspertai „Microsoft“ dokumentą laikė oportunistinėmis pastangomis pareikšti didelius teiginius apie technologiją, kurios niekas iki galo nesuprato. Tyrėjai taip pat teigia, kad bendram intelektui reikalingas fizinio pasaulio pažinimas, kurio GPT-4 teoriškai neturi.

 

     „A.G.I. kibirkštys“ yra pavyzdys, kai kai kurios iš šių didelių kompanijų naudoja mokslinių tyrimų formatą reklamai, – sakė mokslininkas ir Carnegie Mellon universiteto profesorius Maartenas Sapas. „Jie pažodžiui savo darbo įvade pripažįsta, kad jų požiūris yra subjektyvus ir neformalus ir gali neatitikti griežtų mokslinio vertinimo standartų."

 

     Dr. Bubeckas ir dr. Lee sakė nežinantys, kaip apibūdinti sistemos elgesį, ir galiausiai apsistojo ties „A.G.I. kibirkštimis“, nes jie manė, kad tai patrauks kitų tyrinėtojų vaizduotę.

 

     Kadangi „Microsoft“ mokslininkai išbandė ankstyvąją GPT-4 versiją, kuri nebuvo tiksliai suderinta, kad būtų išvengta neapykantos kurstymo, dezinformacijos ir kito nepageidaujamo turinio, dokumente pateiktų teiginių negali patikrinti išorės ekspertai. „Microsoft“ teigia, kad visuomenei prieinama sistema nėra tokia galinga, kaip jų išbandyta versija.

 

     Kartais atrodo, kad tokios sistemos, kaip GPT-4 imituoja žmogaus samprotavimus, tačiau kartais jos atrodo siaubingai sudėtingos. „Šis elgesys ne visada yra nuoseklus“, – sakė Ece Kamar, „Microsoft“ tyrimų vadovas.

 

     Alison Gopnik, psichologijos profesorė, priklausanti A.I. Kalifornijos universiteto Berklyje tyrimų grupei, teigė, kad tokios sistemos, kaip GPT-4, be jokios abejonės, yra galingos, tačiau nebuvo aišku, kad šių sistemų sukurtas tekstas buvo žmogaus samprotavimų ar sveiko proto rezultatas.

 

     „Kai matome sudėtingą sistemą ar mašiną, mes ją antropomorfizuojame; visi tai daro – žmonės, dirbantys šioje srityje, ir žmonės, kurie nedirba“, – sakė dr. Gopnik. „Tačiau mąstant apie tai, kaip apie nuolatinį palyginimą A.I. su žmonėmis – kaip koks nors žaidimų šou konkursas – tiesiog nėra tinkamas būdas apie tai galvoti."" [1]


 

  

Komentarų nėra: