„Siekdami sumažinti klaidingos informacijos iš pokalbių
robotų gamybą ir sklaidą, galime nukreipti juos link aukštos kokybės duomenų.
Kiekvienas, susigundęs A.I. varomų pokalbių robotų, tokių,
kaip „ChatGPT“ ir „Bard“, – oho, jie gali rašyti esė ir receptus! — galiausiai
susiduria su vadinamosiomis haliucinacijomis, dirbtinio intelekto polinkiu
kurti klaidingą informaciją.
Pokalbių robotai, kurie atspėja, ką pasakyti, remdamiesi
informacija, gauta iš viso interneto, negali kitaip. Ir kai jiems
nepavyksta, pavyzdžiui, paskelbus pyrago receptą su nepaprastai netiksliais
miltų matavimais, tai gali būti tikras šurmulys.
Vis dėlto, kadangi pagrindiniai technologijų įrankiai ir
toliau integruoja A.I., labai svarbu suprasti, kaip jį naudoti mums tarnauti.
Išbandžius dešimtis A.I. produktų per pastaruosius du mėnesius, padariau
išvadą, kad dauguma iš mūsų technologiją naudoja neoptimaliai, daugiausia dėl
to, kad technologijų įmonės mums davė prastus nurodymus.
Pokalbių robotai yra mažiausiai naudingi, kai užduodame
jiems klausimus ir tikimės, kad bet kokie atsakymai, kuriuos jie patys
sugalvoja, yra teisingi, todėl kad jie buvo sukurti taip naudoti. Tačiau, kai A.I.
nurodoma naudoti informaciją iš patikimų šaltinių, pvz., patikimų svetainių ir
mokslinių darbų, jis gali labai tiksliai atlikti naudingas užduotis.
„Jei suteiksite jiems reikiamą informaciją, jie galės su ja
padaryti įdomių dalykų“, – sakė „Context“ įkūrėjas Samas Heutmakeris, A.I.
pradėti. „Tačiau 70 procentų to, ką gausite, nebus tikslūs.
Paprasčiausiai patardami pokalbių robotams dirbti su
konkrečiais duomenimis, jie sukūrė suprantamus atsakymus ir naudingus
patarimus. Tai per pastaruosius kelis mėnesius mane pavertė iš įnirtingo A.I.
skeptiku entuziastingu vartotoju.
Kai išvykau į kelionę, naudodamasis „ChatGPT“ suplanuotu
kelionės maršrutu, sekėsi gerai, nes rekomendacijos buvo iš mano mėgstamų
kelionių svetainių.
Pokalbių robotų nukreipimas į konkrečius aukštos kokybės
šaltinius, pvz., svetaines iš nusistovėjusių žiniasklaidos priemonių ir
akademinių leidinių, taip pat gali padėti sumažinti dezinformacijos kūrimą ir
sklaidą. Leiskite pasidalinti kai kuriais būdais, kuriais pasinaudojau, kad
gaučiau pagalbą, gaminant maistą, planuojant keliones, ir tiriant.
Maitinimo planavimas
Tokie pokalbių robotai kaip „ChatGPT“ ir „Bard“ gali rašyti
receptus, kurie teoriškai atrodo gerai, bet praktiškai neveikia. Lapkričio
mėnesį „The New York Times“ maisto skyriaus eksperimento metu ankstyvas A.I.
modelis sukūrė Padėkos dienos meniu receptus, kuriuose buvo itin sausa
kalakutiena ir tankus pyragas.
Taip pat gavau stulbinamų rezultatų, kai naudoju A.I.
sukurtus jūros gėrybių receptus.
Tačiau tai pasikeitė, kai eksperimentavau su
„ChatGPT“ papildiniais, kurie iš esmės yra trečiųjų šalių programos,
veikiančios su pokalbių robotu. (Tik prenumeratoriai, kurie moka 20 dolerių per
mėnesį už prieigą prie „ChatGPT4“, naujausios pokalbių roboto versijos, gali naudoti
papildinius, kuriuos galima suaktyvinti nustatymų meniu.)
„ChatGPT“ papildinių meniu pasirinkau „Skanūs receptai“,
kurie renka duomenis iš „Tasty“ svetainės, priklausančios „BuzzFeed“, gerai
žinomai žiniasklaidos svetainei. Tada paprašiau pokalbių roboto sudaryti valgio
planą, apimantį jūros gėrybių patiekalus, maltą kiaulieną ir daržovių pusę,
naudojant receptus iš svetainės. Botas pristatė įkvepiantį valgymo planą,
įskaitant citrinžolių kiaulienos banh mi, keptus tofu taco ir, viską šaldytuve panaudojančius,
makaronus; kiekviename valgio pasiūlyme buvo nuoroda į „Tasty“ receptą.
Receptams iš kitų leidinių naudojau „Link Reader“ –
papildinį, leidžiantį įklijuoti žiniatinklio nuorodą, kad galėčiau sukurti
valgio planus, naudojant receptus iš kitų patikimų svetainių, pvz., „Serious
Eats“. Pokalbių robotas surinko duomenis iš svetainių, kad sudarytų valgio
planus, ir liepė man apsilankyti svetainėse ir perskaityti receptų. Tai
pareikalavo papildomo darbo, bet pranoko A.I. sugalvotą maitinimosi planą.
Tyrimas
Kai tyrinėjau straipsnį apie populiarią vaizdo žaidimų
seriją, kreipiausi į „ChatGPT“ ir „Bard“, kad atnaujinčiau atmintį apie
ankstesnius žaidimus, apibendrindamas jų siužetus. Jie supainiojo svarbią
informaciją apie žaidimų istorijas ir personažus.
Išbandžius daugelį kitų A.I. įrankių, padariau išvadą, kad,
atliekant tyrimus labai svarbu susitelkti į patikimus šaltinius ir greitai dar
kartą patikrinti duomenų tikslumą. Galiausiai radau įrankį, kuris tai suteikia:
Humata.AI, nemokamą žiniatinklio programą, kuri išpopuliarėjo tarp akademinių
tyrinėtojų ir teisininkų.
Programa leidžia įkelti dokumentą, pvz., PDF, o iš ten
pokalbių robotas atsako į jūsų klausimus apie medžiagą kartu su dokumento
kopija, paryškindamas atitinkamas dalis.
Vieno bandymo metu įkėliau mokslinį darbą, kurį radau
„PubMed“ – vyriausybės valdomoje mokslinės literatūros paieškos sistemoje.
Įrankis per kelias minutes parengė atitinkamą ilgo dokumento santrauką.
Procesas man būtų užtrukęs kelias valandas, o aš pažvelgiau į svarbiausius
dalykus, kad dar kartą patikrinčiau, ar santraukos yra tikslios.
Cyrus Khajvandi, „Humata“, esančios Ostine, Teksase,
įkūrėjas, sukūrė programą, kai dirbo tyrėju Stanforde ir jam prireikė pagalbos
skaitant tankius mokslinius straipsnius. Jo teigimu, pokalbių robotų, tokių,
kaip „ChatGPT“, problema yra, kad jie
remiasi pasenusiais interneto modeliais, todėl duomenims gali trūkti atitinkamo
konteksto.
Kelionių planavimas
Kai „Times“ kelionių rašytojas neseniai paprašė „ChatGPT“
sudaryti kelionės į Milaną maršrutą, robotas nukreipė ją aplankyti centrinę
miesto dalį, kuri buvo apleista, nes tai buvo Italijos atostogos, be kitų bėdų.
Man labiau pasisekė, kai paprašiau atostogų maršruto man,
žmonai ir mūsų šunims Mendocino apygardoje, Kalifornijoje. Kaip ir planuodamas
maitinimą, paprašiau „ChatGPT“ įtraukti pasiūlymus iš kai kurių mano
mėgstamiausių kelionių svetainių, pvz., „Thrillist“, kuri priklauso Vox, ir
„The Times“ kelionių skyriaus.
Per kelias minutes pokalbių robotas sukūrė maršrutą, kuriame
buvo šunims draugiški restoranai ir veikla, įskaitant ūkį su vyno ir sūrio
deriniais ir traukinį į populiarų pėsčiųjų taką. Taip sutaupiau kelių valandų
planavimo, o svarbiausia – šunys puikiai praleido laiką.
Apatinė eilutė
„Google“ ir „OpenAI“, glaudžiai bendradarbiaujantys su
„Microsoft“, teigia, kad stengiasi sumažinti haliucinacijas savo pokalbių
robotuose, tačiau jau dabar galime pasinaudoti A.I. pranašumais, perimdami
duomenų, kuriais robotai remiasi, kad gautų atsakymus, kontrolę.
Kitaip tariant: pagrindinis mokymo mašinų su didžiuliais
duomenų rinkiniais pranašumas yra tai, kad jie dabar gali naudoti kalbą, kad
imituotų žmogaus samprotavimus, sakė Nathanas Benaichas, rizikos kapitalistas,
investuojantis į A.I. įmonių. Pasak jo, svarbus žingsnis mums yra susieti šį
gebėjimą su aukštos kokybės informacija.
Brianas X. Chenas yra pagrindinis „The Times“ vartotojų
technologijų rašytojas. Jis apžvelgia produktus ir rašo „Tech Fix“ – skiltį
apie mūsų naudojamų technologijų socialines pasekmes. Prieš prisijungdamas prie
„The Times“ 2011 m., jis pranešinėjo apie „Apple“ ir „Wired“ belaidžio ryšio
pramonę."
Komentarų nėra:
Rašyti komentarą