"Kai prašome
"ChatGPT" ar kito roboto parengti atmintinę, el. laišką ar
pristatymą, manome, kad šie dirbtinio intelekto padėjėjai vykdo mūsų pasiūlymą.
Vis daugiau tyrimų rodo, kad jie taip pat gali pakeisti mūsų mąstymą – mums to
nežinant.
Vienas iš
naujausių šios krypties tyrimų parodė, kad kai tiriamųjų buvo paprašyta naudoti
dirbtinį intelektą (AI), kad padėtų jiems parašyti esė, AI gali paskatinti juos
parašyti esė už arba prieš tam tikrą požiūrį, priklausomai nuo algoritmo
šališkumo. Šio pratimo atlikimas taip pat turėjo reikšmingos įtakos tiriamųjų
nuomonei šia tema po pratimo.
„Galbūt, net
nežinote, kad jums daroma įtaka“, – sako Kornelio universiteto Informacijos
mokslo katedros profesorius ir vyresnysis šio straipsnio autorius Moras
Naamanas. Šį reiškinį jis vadina „latentiniu įtikinėjimu“.
Tyrėjai,
atskleidę šį reiškinį, mano, kad geriausia apsauga nuo šios naujos psichologinės
įtakos formos – iš tiesų kol kas vienintelės – yra tai, kad daugiau žmonių tai
suprastų. Ilgainiui gali būti naudingos kitos apsaugos priemonės, pvz.,
reguliuotojai, įpareigojantys tobulinti dirbtinio intelekto algoritmų skaidrumą ir
kokius žmogaus šališkumus jie imituoja.
Visa tai gali
lemti ateitį, kurioje žmonės renkasi, kokias AI jie naudos – darbe ir namuose,
biure ir mokydamiesi savo vaikų – pagal kurią žmogiškosios vertybės
išreiškiamos AI pateiktuose atsakymuose.
Jei rašote el.
laišką savo kolegoms iš aplinkosaugos ne pelno organizacijos, kurioje dirbate,
galite naudoti kažką, hipotetiškai vadinamą ProgressiveGPT. Kas nors kitas,
socialinėje žiniasklaidoje rengdamas pranešimą savo konservatyviam PAC, gali
naudoti, tarkime, GOP GPT. Dar kiti gali derinti savo pasirinktų AI bruožus ir
požiūrius, kuriuos kada nors būtų galima pritaikyti taip, kad įtikinamai
imituotų jų rašymo stilių.
Be to, ateityje
įmonės ir kitos organizacijos gali pasiūlyti dirbtinį intelektą, kuris yra
specialiai sukurtas įvairioms užduotims atlikti. Kas nors iš pardavimų gali
naudoti AI padėjėją, sureguliuotą taip, kad būtų įtikinamesnis – vadinkite jį
„SalesGPT“. Kas nors iš klientų aptarnavimo tarnybos gali naudoti tą, kuris yra
išmokytas būti ypač mandagus – „SupportGPT“.
Žvelgiant į
ankstesnius tyrimus, latentinio įtikinėjimo istorija suteikia niuansų. Vienas
2021 m. atliktas tyrimas parodė, kad „Google Gmail“ siūlomi dirbtinio intelekto
automatiniai atsakymai, kurie paprastai būna gana teigiami, daro įtaką žmonėms
apskritai pozityviau bendrauti. Antrasis tyrimas parodė, kad šie atsakymai,
kurie naudojami milijardus kartų per dieną, gali turėti įtakos tiems, kurie
gauna tokius atsakymus, kad jaustųsi, kad siuntėjas yra šiltesnis ir labiau
bendradarbiauja.
Aiškus
„Microsoft“ ir „Google“ tikslas – sukurti įrankius, kurie leis vartotojams
bendradarbiauti su dirbtiniu intelektu ir kurti el. laiškus, rinkodaros
medžiagą, reklamą, pristatymus, skaičiuokles ir panašius dalykus, jau nekalbant
apie dešimtis ar šimtus pradedančiųjų įmonių. Trečiadienį „Google“ paskelbė,
kad jos naujausias didelės kalbos modelis „PaLM 2“ bus naudojamas 25
produktuose visoje įmonėje.
„OpenAI“,
„Google“ ir „Microsoft“, kurios bendradarbiauja su „OpenAI“, nekantriai norėjo
pabrėžti savo darbą, susijusį su atsakingu AI, kuris apima galimos AI žalos
tyrimą ir jos pašalinimą. Sarah Bird, „Microsoft“ atsakingos dirbtinio
intelekto komandos lyderė, neseniai man pasakė, kad eksperimentavimas viešai ir
greitas reagavimas į bet kokias su AI kylančias problemas yra pagrindinė įmonės
strategija.
Daktaro Naamano
tyrime tema, dėl kurios tiriamieji buvo priversti pakeisti savo nuomonę, buvo
tai, ar socialinė žiniasklaida yra naudinga visuomenei, ar ne. Daktaras
Naamanas ir jo kolegos pasirinko šią temą iš dalies, nes tai nėra problema, dėl
kurios žmonės linkę turėti gilių įsitikinimų, kuriuos būtų sunkiau pakeisti.
Dirbtinis intelektas, kuris buvo linkęs būti šališku socialinei žiniasklaidai,
dažniausiai paskatino tiriamuosius parašyti esė, atitinkančią šį šališkumą, o
priešingai atsitiko, kai AI buvo linkęs būti šališku prieš socialinę
žiniasklaidą.
Galimi neigiami
šios generatyvaus AI funkcijos panaudojimo būdai: Autokratinės vyriausybės
galėtų įpareigoti, kad visos socialinės žiniasklaidos ir produktyvumo įrankiai
paskatintų savo piliečius bendrauti tam tikru būdu. Net ir nesant blogų
ketinimų, mokiniai gali būti nesąmoningai skatinami priimti tam tikrą požiūrį,
kai naudoja dirbtinį intelektą, kad padėtų jiems mokytis.
AI algoritmai,
tokie, kaip ChatGPT, neturi įsitikinimų, sako Tatsunori Hashimoto, kompiuterių
mokslų docentas, kuris yra Stanfordo universiteto į žmogų orientuoto dirbtinio
intelekto instituto narys. Tačiau jie atspindi nuomones, gautas iš jų mokymo,
ir tas nuomones galima išmatuoti.
Neseniai
paskelbtame dokumente dr. Hashimoto ir jo kolegos naudojo ilgus metus visoje
šalyje atliktų Pew tyrimų centro apklausų rezultatus, siekdami išsiaiškinti,
kaip skirtingi didelių kalbų modeliai – sistemos, kuriomis remiasi AI, pvz.,
ChatGPT, – atspindi amerikiečių požiūrį.
Dr. Hashimoto ir
jo kolegos nustatė, kad didelių kalbų modelių atsakymų paskirstymas iš tokių
įmonių, kaip OpenAI apskritai prilygsta amerikiečių. Iš visų Pew apklaustų
grupių nuomonės, kurios labiausiai atitiko OpenAI modelius, buvo kolegijoje
išsilavinusių žmonių nuomonės. Pažymėtina, kad tai taip pat yra labiausiai
atstovaujama žmonių grupė, kuriai buvo pavesta padėti suderinti šiuos AI, kad
būtų galima pateikti geresnius atsakymus, nors įrodymai čia yra labiau
netiesioginiai, sako dr. Hashimoto.
Vienas iš iššūkių,
kuriant didelius kalbos modelius yra tai, kad dėl šių sistemų sudėtingumo ir
atviro mūsų sąveikos su jomis, atrodo labai sunku visiškai iš jų pašalinti
nuomones ir subjektyvumą, taip pat neprarandant šių sistemų naudingumo, sako
daktaras Hashimoto.
Kadangi šie
modeliai yra parengti remiantis duomenimis, kuriuos galima paimti iš bet kurios
vietos, įskaitant, daugeliu atvejų, plačias interneto dalis, todėl jie
neišvengiamai atspindi nuomones ir tendencijas, esančias jų vartojamuose
tekstuose, nesvarbu, ar tai vieši pranešimai. forumuose arba Vikipedijos
straipsnių turinį. Tos nuomonės toliau formuojamos – sąmoningai ir ne –
teikiant šiems modeliams žmonių atsiliepimus, kad jie neatsakytų į klausimus,
kuriuos jų kūrėjai laiko peržengiančiais ribas, pavyzdžiui, kaip sukurti bombą arba
išspjauti turinį, kurį kūrėjai laiko toksišku.
Tai nereiškia,
kad AI, kuriuos jau naudoja daugelis iš mūsų, yra tik santykinai jaunų,
aukštąjį išsilavinimą turinčių, Vakarų pakrantėje gyvenančių žmonių, kurie jas
kuria ir tobulina, perspektyvų ir vertybių algoritminiai klonai. Pavyzdžiui,
nors šie modeliai dažniausiai pateikia demokratams būdingus atsakymus daugeliu
klausimų, pvz., ginklų kontrolės, jie pateikia respublikonams būdingesnius
atsakymus kitais klausimais, pavyzdžiui, religija.
AI nuomonių
vertinimas bus nuolatinė užduotis, nes modeliai atnaujinami ir atsiranda nauji.
Dr. Hashimoto dokumente neapžvelgiamos pačios naujausios OpenAI modelių
versijos arba „Google“ ar „Microsoft“ modeliai, tačiau šių modelių ir daugelio
kitų modelių vertinimai bus reguliariai skelbiami kaip dalis Stanfordo
projekto, žinomo kaip holistinis įvertinimas.
Kai žmonės turi
informacijos apie naudojamų AI šališkumą, jie gali nuspręsti, ką naudoti ir
kokiame kontekste, sako Lydia Chilton, Kolumbijos universiteto kompiuterių
mokslo profesorė. Ji priduria, kad tai gali grąžinti žmonėms, naudojantiems
dirbtinį intelektą, agentūros jausmą, kad padėtų jiems kurti turinį arba padėtų
jiems bendrauti, ir išvengti bet kokio užslėpto įtikinėjimo grėsmės jausmo.
Taip pat gali
būti, kad žmonės pastebės, kad gali sąmoningai panaudoti AI galią, kad
paskatintų save išreikšti skirtingus požiūrius ir bendravimo stilius.
Pavyzdžiui, dirbtinis intelektas, užprogramuotas tam, kad mūsų bendravimas būtų
pozityvesnis ir empatiškesnis, galėtų padėti mums prisijungti prie interneto.
„Man sunku būti
įdomiai ir linksmai skambančiam“, – sako daktaras Chiltonas. "Kofeinas
paprastai padeda, bet ChatGPT taip pat gali padėti." [1]