Sekėjai

Ieškoti šiame dienoraštyje

2024 m. spalio 1 d., antradienis

Ar „ChatGPT“ daro mokslininkus itin produktyviais? Dirbtinio intelekto naudojimo aukštumos ir nuosmukiai


 

 „Dideli kalbų modeliai keičia mokslinį rašymą ir leidybą. Tačiau šių priemonių produktyvumo padidėjimas gali turėti neigiamos pusės.

 

 

 

 Praėjus daugiau, nei metams, po viešo debiuto, „ChatGPT“ ir toliau užima dėmesio centrą.

 

 

 

 2022 m. lapkritį technologijų įmonė OpenAI San Franciske, Kalifornijoje, išleido dirbtinio intelekto (AI) pokalbių robotą, kaip nemokamą įrankį. Po dviejų mėnesių ChatGPT jau buvo įtraukta į kelių mokslinių darbų autorių sąrašą.

 

 

 

 ChatGPT po vienerių metų: kas akademijoje juo naudojasi, kaip ir kodėl?

 

 

 

 Akademiniai leidėjai stengėsi paskelbti „ChatGPT“ ir kitų didelių kalbų modelių (LLM) naudojimo rašymo procese politiką. Iki praėjusių metų spalio 87 iš 100 geriausių mokslo žurnalų autoriams pateikė rekomendacijas, kaip naudoti generatyvųjį dirbtinį intelektą, kuris gali sukurti tekstą, vaizdus ir kitą turinį.

 

 

 

 Tačiau tai nėra vienintelis būdas, kuriuo ChatGPT ir kiti dideli kalbos modeliai (LLM) pradėjo keisti mokslinį rašymą.

 

 

Akademinės bendruomenės konkurencinėje aplinkoje bet kokia priemonė, leidžianti tyrėjams „sukurti daugiau publikacijų, bus labai patrauklus pasiūlymas“, sako skaitmeninių inovacijų tyrinėtojas Savvas Papagiannidis iš Niukaslio universiteto Niukasle prie Taino, JK.

 

 

 

 Generatyvusis dirbtinis intelektas ir toliau tobulėja, todėl leidėjai, dotacijų finansavimo agentūros ir mokslininkai turi apsvarstyti, kas yra etiškas LLM naudojimas ir ką per didelis pasitikėjimas šiomis priemonėmis sako apie mokslinių tyrimų aplinką, skatinančią hiperproduktyvumą.

 

 Ar mokslininkai, rašydami dokumentus, reguliariai naudoja LLM?

 

 

 

 Prieš viešai išleidžiant „ChatGPT“, jis nebuvo beveik toks patogus vartotojui, kaip šiandien, sako kompiuterių mokslininkė Debora Weber-Wulff iš HTW Berlyno taikomųjų mokslų universiteto. „Senesnių GPT modelių sąsajos buvo tai, ką galėjo mylėti tik kompiuterių mokslininkas."

 

 

 

 Anksčiau mokslininkams paprastai reikėjo patirties, kad galėtų naudoti pažangius LLM. Dabar „GPT tam tikru mastu tai demokratizavo“, – sako Papagiannidis.

 

 

 

 Ši demokratizacija paskatino LLM naudojimą, rašant mokslinius tyrimus. 2023 m. atliktame Nature tyrime, kuriame dalyvavo daugiau, nei 1 600, mokslininkų, beveik 30 % teigė, kad naudojo generatyviuosius AI įrankius, kad padėtų rašyti rankraščius, o apie 15 % teigė, kad juos naudojo rašydami paraiškas dotacijai gauti.

 

 

 

 Ir LLM turi daug kitų naudojimo būdų. Jie gali padėti mokslininkams rašyti kodą, kurti mokslinių tyrimų idėjas ir atlikti literatūros apžvalgas. Taip pat tobulėja kitų kūrėjų LLM – pavyzdžiui, „Google Gemini“ ir San Francisko AI įmonės Anthropic sukurtas „Claude 2“.

 

 

 

 Tyrėjai, turintys reikiamų įgūdžių, netgi gali sukurti savo individualizuotus LLM, kurie būtų tiksliai suderinti su jų rašymo stiliumi ir mokslo sritimi, sako Thomas Lancasteris, Londono imperatoriškojo koledžo kompiuterių mokslininkas.

 

 

 

 Kokia nauda tyrėjams?

 

 

 

 Apie 55 % Nature apklausos respondentų manė, kad pagrindinis generatyvaus AI privalumas yra galimybė redaguoti ir versti raštus mokslininkams, kurių gimtoji kalba nėra anglų. Panašiai, Europos mokslinių tyrimų tarybos (ERC), finansuojančios mokslinius tyrimus Europos Sąjungoje, apklausoje 75 % iš daugiau, nei 1000, EMTT dotacijų gavėjų manė, kad generatyvinis AI sumažins kalbos barjerus, atliekant tyrimus.

 

 

 

 85 % ERC apklausos respondentų manė, kad generuojantis AI gali atlikti pasikartojančias arba, daug darbo reikalaujančias, užduotis, pavyzdžiui, literatūros apžvalgas. Ir 38 % manė, kad generatyvus AI skatintų mokslo produktyvumą, pavyzdžiui, padėtų mokslininkams greičiau rašyti darbus.

 

 Kokie yra minusai?

 

 

 

 Nors „ChatGPT“ produkcija gali būti įtikinamai panaši į žmogaus, Weber-Wulff perspėja, kad LLM vis tiek gali padaryti kalbos klaidų, kurias skaitytojai gali pastebėti. Tai viena iš priežasčių, kodėl ji pasisako už tai, kad mokslininkai pripažintų LLM naudojimą savo dokumentuose. Pokalbių robotai taip pat yra žinomi dėl to, kad generuoja išgalvotą informaciją, vadinamą haliucinacijomis.

 

 

 

 Kaip ChatGPT ir kiti AI įrankiai gali sutrikdyti mokslinę publikaciją

 

 

 

 Ir produktyvumo padidėjimas, kurį gali sukelti LLM, turi trūkumų. Paspartinus rašymo procesą žurnaluose gali padidėti pralaidumas, todėl redaktoriai ir recenzentai gali būti dar labiau užimti, nei jie jau yra. „Dėl šio nuolat didėjančio straipsnių skaičiaus – kadangi jų skaičius kasmet didėja – tiesiog nėra pakankamai žmonių, kurie galėtų ir toliau atlikti nemokamą leidėjų tarpusavio peržiūrą“, – sako Lankasteris. Jis taip pat atkreipia dėmesį į tai, kad kartu su tyrėjais, kurie atvirai naudojasi LLM ir tai pripažįsta, kai kurie tyliai naudojasi įrankiais, kad atliktų mažos vertės tyrimus.

 

 

 

 Jau dabar sunku naršyti paskelbtų straipsnių jūrą, kad būtų galima rasti prasmingų tyrimų, sako Papagiannidis. Jei padidės ChatGPT ir kiti LLM produkcijos, tai bus dar sudėtingesnė situacija.

 

 

 

 „Turime grįžti ir pažiūrėti, kokia yra atlygio sistema akademinėje bendruomenėje“, – sako Weberis-Wulffas. Dabartinis „publikuoti arba žūti“ modelis apdovanoja tyrėjus, nuolat stumiančius straipsnius. Tačiau daugelis žmonių teigia, kad tai turi pereiti prie sistemos, kuri teikia pirmenybę kokybei, o ne kiekybei.

 

 

Pavyzdžiui, Weber-Wulff sako, kad Vokietijos tyrimų fondas leidžia pareiškėjams į pasiūlymą įtraukti tik dešimt publikacijų. „Norite sutelkti savo darbą į tikrai gerus, aukšto lygio straipsnius“, - sako ji.

 

 Kur moksliniai leidėjai vertina LLM naudojimą?

 

 

 

 Remiantis The BMJ atliktu tyrimu, 24 iš 100 didžiausių pasaulio leidėjų, bendrai atsakingų už daugiau, nei 28 000, žurnalų, iki praėjusių metų spalio mėnesio pateikė rekomendacijas dėl generatyvaus AI. Žurnalai, kuriuose taikoma generatyvinė AI politika, paprastai leidžia šiek tiek naudoti „ChatGPT“ ir kitus LLM, jei jie tinkamai pripažįstami.

 

 

 

 Pavyzdžiui, „Springer Nature“ teigia, kad LLM naudojimas turėtų būti dokumentuojamas metoduose arba kitoje rankraščio dalyje – gairės, pateiktos 2023 m. sausio mėn.

 

 

Tačiau generatyvūs AI įrankiai neatitinka autorystės kriterijų, nes tai „prisiima atskaitomybę už darbą, o AI įrankiai negali prisiimti tokios atsakomybės“.

 

 

(Nature's News komanda redakciniu požiūriu nepriklauso nuo savo leidėjo Springer Nature.)

 

 

 

 Šių taisyklių vykdymą lengviau pasakyti, nei padaryti, nes leidėjams ir kolegoms recenzentams gali būti sunku pastebėti neatskleidžiamą AI sukurtą tekstą. Kai kurie žvalgai tai užfiksavo dėl subtilių frazių ir klaidingų vertimų.

 

 

 

 Skirtingai nuo plagiato atvejų, kai yra aiški pirminė medžiaga, „negalite įrodyti, kad ką nors parašė AI“, sako Weber-Wulff.

 

 

 

 Nepaisant to, kad mokslininkai stengiasi sukurti LLM aptikimo įrankius, „nesame matę tokio, kuris, mūsų manymu, duotų pakankamai įtikinamų rezultatų“, kad būtų galima patikrinti žurnalų pateiktus duomenis, sako Holdenas Thorpas, „Science“ žurnalų šeimos vyriausiasis redaktorius.

 

 O kaip dėl kitų naudojimo būdų?

 

 

 

 Nors nuo lapkričio mėn. Amerikos mokslo pažangos asociacija, leidžianti mokslą, leidžia tam tikru būdu atskleisti generatyvinį AI rengiant rankraščius, ji vis dar draudžia naudoti LLM per tarpusavio peržiūrą, sako Thorpas. Taip yra todėl, kad jis ir kiti „Science“ darbuotojai nori, kad recenzentai visą savo dėmesį skirtų vertinamam rankraštiui, priduria jis. Panašiai Springer Nature politika draudžia recenzentams įkelti rankraščius į generatyvaus AI įrankius.

 

 

 

 Mokslo žvalgai laikraščiuose pastebi nesąžiningą ChatGPT naudojimą

 

 

 

 Kai kurios dotacijų finansavimo agentūros, įskaitant JAV nacionalinius sveikatos institutus ir Australijos mokslinių tyrimų tarybą, draudžia recenzentams naudoti generatyvųjį dirbtinį intelektą, kad padėtų nagrinėti paraiškas dotacijai gauti, nes nerimauja dėl konfidencialumo (pasiūlymai dėl dotacijų laikomi konfidencialiais dokumentais, o duomenys įvedami į viešas LLM gali pasiekti kiti žmonės).

 

 

 

 Tačiau EMTT mokslinė taryba, valdanti EMTT, gruodžio mėn. paskelbė pareiškimą, kuriame pripažino, kad tyrėjai naudoja dirbtinio intelekto technologijas kartu su kitomis išorinės pagalbos formomis, rengdami dotacijų pasiūlymus. Jame teigiama, kad tokiais atvejais autoriai vis tiek turi prisiimti visą atsakomybę už savo darbą.

 

 

 

 „Daugelis organizacijų dabar pateikia labai gynybinius pareiškimus“, reikalaujančius, kad autoriai pripažintų bet kokį generatyvaus AI naudojimą, sako ERC mokslinės tarybos narys Tomas Henzingeris, Austrijos mokslo ir technologijų instituto Klosterneuburge kompiuterių mokslininkas.

 

 

 

 Jam atrodo, kad ChatGPT naudojimas niekuo nesiskiria nuo prašymo kolegai peržiūrėti tekstą, skirto atsiliepimams. „Naudokite visus turimus išteklius“, - sako Henzingeris.

 

 

 

 Nepaisant nuolat besikeičiančių taisyklių, susijusių su generatyviniu AI, mokslininkai ir toliau juo naudosis, sako Lankasteris. „Nėra būdo kontroliuoti tokių technologijų, kaip „ChatGPT“ naudojimą.“ [1]

 

 1. Nature 627, 16-17 (2024)   By McKenzie Prillaman

Komentarų nėra: