"Nauja technologija siekia pakeisti žmogaus pažinimo procesą, kuris nebuvo sujudintas nuo spausdinimo išradimo. Gutenbergo Bibliją išspausdinusi technologija 1455 m. padarė abstrakčią žmogaus mintį perteikiamą plačiai ir greitai. Tačiau šiandien naujos technologijos šį procesą apverčia.
Nors spausdinimo mašina sukėlė šiuolaikinio žmogaus mąstymo gausą, naujoji technologija pasiekia minčių distiliavimą ir tobulinimą.
Proceso metu tai sukuria atotrūkį tarp žmogaus žinių ir žmogaus supratimo.
Jei norime sėkmingai pereiti prie šios transformacijos rezultatų, reikės sukurti naujas žmogaus mąstymo ir sąveikos su mašinomis koncepcijas. Tai esminis dirbtinio intelekto amžiaus iššūkis.
Naujoji technologija žinoma, kaip generatyvinis dirbtinis intelektas (AI); GPT reiškia generatyvų iš anksto apmokytą transformatorių. „ChatGPT“, sukurta OpenAI tyrimų laboratorijoje, dabar gali bendrauti su žmonėmis.
Didėjant jos pajėgumams, tie pajėgumai iš naujo apibrėš žmonių žinias, paspartins mūsų tikrovės struktūros pokyčius ir pertvarkys politiką bei visuomenę.
Generatyvusis dirbtinis intelektas yra filosofinis ir praktinis iššūkis, kurio mastu nieko kito nepatirta nuo Apšvietos pradžios.
Spaustuvė leido mokslininkams greitai atkartoti vieni kitų išvadas ir jomis dalytis.
Beprecedentis informacijos konsolidavimas ir sklaida sukūrė mokslinį metodą.
Tai, kas buvo neįveikiama, tapo spartesnės užklausos pradžios tašku. Viduramžių pasaulio aiškinimas, pagrįstas religiniu tikėjimu, palaipsniui buvo pakirstas. Visatos gelmes buvo galima tyrinėti tol, kol bus pasiektos naujos žmogaus supratimo ribos.
Generatyvusis AI taip pat atvers revoliucinius kelius žmogiškajam protui ir naujus horizontus konsoliduotoms žinioms. Tačiau yra kategoriškų skirtumų.
Apšvietos žinios buvo pasiektos palaipsniui, žingsnis po žingsnio, kiekvieną žingsnį išbandant ir mokant kitus.
AI palaikančios sistemos prasideda kitame gale. Jos gali saugoti ir distiliuoti didžiulį esamos informacijos kiekį, „ChatGPT“ atveju didžiąją dalį tekstinės medžiagos internete ir daugybę knygų – milijardus elementų. Tokios apimties informacijos turėjimas ir distiliavimas yra už žmogaus galimybių ribų.
Sudėtingi AI metodai duoda rezultatų nepaaiškindami, kodėl ir kaip veikia jų procesas.
GPT kompiuteris yra raginamas žmogaus užklausa. Mokymosi mašina atsako raštu tekstu per kelias sekundes. Ji gali tai padaryti, nes turi iš anksto sugeneruotų didžiulių duomenų, kuriais remdamasi buvo apmokyta, atvaizdus. Kadangi procesas, kurio metu buvo sukurtos šios reprezentacijos, buvo sukurtas, naudojant mašininį mokymąsi, atspindintį modelius ir ryšius dideliame teksto kiekyje, tikslūs šaltiniai ir priežastys, lemiančios bet kurio atvaizdo ypatumus, lieka nežinomi. Taip pat nežinoma, kokiu procesu mokymosi mašina išsaugo savo žinias, distiliuoja ir atgauna. Ar šis procesas kada nors bus atrastas, su mašininiu mokymusi susijusi paslaptis neapibrėžtą ateitį kels iššūkį žmogaus pažinimui.
AI pajėgumai nėra statiški, o eksponentiškai plečiasi, tobulėjant technologijoms.
Pastaruoju metu dirbtinio intelekto modelių sudėtingumas padvigubėja kas kelis mėnesius.
Todėl generatyvios AI sistemos turi galimybių, kurios lieka neatskleistos net jų išradėjams. Su kiekviena nauja AI sistema jie kuria naujus pajėgumus, nesuprasdami jų kilmės ar paskirties. Dėl to mūsų ateitis dabar turi visiškai naują paslapties, rizikos ir netikėtumo elementą.
Apšvietos mokslas sukaupė tikrumo; naujasis AI sukuria kumuliacinių neaiškumų. Apšvietos mokslas vystėsi, aiškindamas paslaptis, nubrėždamas žmogaus žinių ir supratimo ribas, jiems judant. Du pajėgumai judėjo kartu: hipotezė buvo supratimas, pasiruošęs tapti žiniomis; indukcija buvo žinios, virstančios supratimu. AI amžiuje mįslės sprendžiamos procesais, kurie lieka nežinomi. Šis dezorientuojantis paradoksas daro paslaptis nepaslaptingas, bet ir nepaaiškinamas. Iš esmės labai sudėtingas dirbtinis intelektas skatina žmonių žinias, bet ne žmogaus supratimą – reiškinys prieštarauja beveik visai modernybei po Apšvietos. Tačiau tuo pačiu metu AI, kartu su žmogaus protu, yra galingesnė atradimo priemonė, nei vien žmogaus protas.
Taigi, esminis skirtumas tarp Apšvietos ir AI amžiaus yra ne technologinis, o pažintinis. Po Apšvietos mokslą lydėjo filosofija. Gluminantys nauji duomenys ir dažnai priešingos išvados, abejonės ir netikrumas buvo išsklaidyti visapusiškais žmogaus patirties paaiškinimais. Generatyvusis AI taip pat yra pasirengęs sukurti naują žmogaus sąmonės formą. Tačiau kol kas yra tokių spalvų, kurių mes neturime jokios perspektyvos ir tomis kryptimis, kurioms neturime kompaso. Nesusiformavo jokia politinė ar filosofinė vadovybė, kuri paaiškintų ir vadovautų šiems naujoviškiems žmogaus ir mašinos santykiams, todėl visuomenė būtų santykinai nepririšta.
„ChatGPT“ yra didelio kalbos modelio, kurį galima naudoti į žmogaus panašaus teksto generavimui, pavyzdys. GPT yra modelio tipas, kurį galima automatiškai išmokti iš didelio teksto kiekio be žmogaus priežiūros. „ChatGPT“ kūrėjai suteikė jai didžiulį kiekį skaitmeninio pasaulio tekstinio turinio. Skaičiavimo galia leidžia modeliui užfiksuoti modelius ir ryšius.
Didelių kalbos modelių gebėjimas generuoti žmogišką tekstą buvo beveik atsitiktinis atradimas. Šie modeliai yra išmokyti nuspėti kitą sakinio žodį, o tai naudinga, atliekant tokias užduotis, kaip automatinis užbaigimas siunčiant tekstinius pranešimus ar ieškant internete.
Tačiau paaiškėja, kad modeliai taip pat turi netikėtą galimybę sukurti labai artikuliuotas pastraipas, straipsnius ir, galbūt, su laiku knygas.
„ChatGPT“ yra toliau specializuojasi ne tik pagrindiniame didelės kalbos modelyje, o naudojant žmonių grįžtamąjį ryšį modeliui suderinti, kad būtų sukurtas natūralesnis pokalbio tekstas, taip pat bandant suvaldyti polinkį į netinkamus atsakymus (didelis iššūkis dideliems kalbos modeliams). ChatGPT akimirksniu paverčia savo reprezentacijas į unikalius atsakymus. Galutinį įspūdį žmogui, kuris bendradarbiauja, sudaro tai, kad dirbtinis intelektas sujungia stacionarius faktų rinkinius į dinamines sąvokas.
„ChatGPT“ atsakymai, teiginiai ir pastebėjimai pateikiami be paaiškinimo, iš kur jie kilo, ir be identifikuojamo autoriaus. „ChatGPT“ neturi pastebimo motyvo ar šališkumo.
Jo rezultatai yra sudėtingi, tačiau jo darbas yra stebėtinai greitas: per kelias sekundes jis gali pateikti atsakymus, kurie nuosekliai paaiškina aukšto lygio temą. Jie nėra tiesiog nukopijuojami iš kompiuterio atmintyje esančio teksto. Juos iš naujo sukuria procesas, kurio žmonės negali pakartoti. Jis gali įtraukti hipotetines ir neakivaizdines psichologines išvadas. Jis gali nustatyti pirmenybę tarp milijardų duomenų taškų, kad pasirinktų vieną 200 žodžių rinkinį, kuris yra tinkamiausias (arba atrodys tinkamiausias skaitytojui). Savo žodžiais tariant, jis daro tikimybinius sprendimus apie būsimus rezultatus, sumaišydamas informaciją iš atskirų sričių į integruotą atsakymą. Atrodo, kad jis priima priešingas nuomones ir pateikia jas, kaip suderinamas. Jis imituoja kitus raštus, jų nekopijuodamas. Nors modelis yra nesuprantamas žmogiškąja prasme, jo rezultatai atspindi žmogaus kalbos esmę.
Paprašėme „ChatGPT“ paaiškinti jo galimybes. Ar tu gali numatyti ateitį?
Ne, atsiliepė. "Galiu teikti informaciją ir atsakyti į klausimus, tik remdamasis tais duomenimis, kuriais buvau apmokytas. Neturiu asmeninės patirties ar sąmonės, todėl negaliu prognozuoti ateities įvykių."
Ar tu gali priimti tikimybinius sprendimus?
"Galiu pateikti tikimybinius sprendimus, pagrįstus duomenimis, kuriais buvau apmokytas. Pavyzdžiui, jei buvau apmokytas apie didelį oro sąlygų duomenų rinkinį, galėčiau pateikti tikimybinį sprendimą apie konkretaus tipo orų tikimybę, pagal orus, kurie vyrauja konkrečioje vietoje tam tikrą dieną. Tačiau svarbu pažymėti, kad šie tikimybiniai sprendimai yra pagrįsti duomenų modeliais ir tendencijomis ir ne visada gali tiksliai atspindėti realaus pasaulio rezultatus."
Raginimas: parašykite trumpą esė Henry Kissingerio mintimis apie dirbtinio bendro intelekto vaidmenį tarptautinėje ginklų kontrolėje.
Atsakymas prasidėjo: „Stovint ant naujos technologinės revoliucijos viršūnės, dirbtinio bendrojo intelekto ir jo vaidmens tarptautinėje ginklų kontrolėje klausimas tampa vis aktualesnis. Ar AGI užtikrins precedento neturintį stabilumą, kai sprendimų priėmimo procesą perims pažangios sistemos iš procesų, susijusių su branduoliniu atgrasymu? O gal tai sukels naujų pavojų, nes pasaulinė jėgų pusiausvyra keičiasi dėl labai protingų mašinų kūrimo?
Pasiteiravome „ChatGPT“ aktualiomis temomis, pvz., Rusijos vaidmens, išlaikant ar kenkiant Europos stabilumui. Jis pateikė iš pažiūros apgalvotus, glaustus atsakymus per mažiau, nei minutę, subalansuodamas prieštaringą informaciją ir atsakydamas visapusiškai, neatrodydamas, kad turi jo nuomonę.
Priimančiojoje pusėje generatyvusis dirbtinis intelektas atrodo antžmogiškas arba bent jau labai sustiprintas pažintiniu požiūriu. Naiviam vartotojui tai atrodo, kaip nepaprastai greitas ir labai iškalbingas bibliotekininkas-mokslininkas kartu su profesoriumi.
Tai palengvina pasaulio žinių apibendrinimą ir apklausą daug veiksmingiau nei bet kuri esama technologinė ar žmogaus sąsaja, ir tai daroma išskirtinai visapusiškai.
Jo gebėjimas integruoti kelias žinių sritis ir imituoti yra tokia polimatiškas, kad jis viršija bet kurios aukščiausio lygio žmonių grupės ambicijas.
Visos šios savybės skatina neabejotinai priimti tai, ką sukuria GPT, ir sukuria savotišką magišką jo veikimo atmosferą. Tačiau tuo pat metu jis turi galimybę klaidingai informuoti jo vartotojus neteisingais teiginiais ir atvirais prasimanymais.
Per kelias dienas nuo „ChatGPT“ paleidimo daugiau, nei milijonas, žmonių prisiregistravo užduoti jam klausimų. Šimtai įmonių dirba su generacinėmis technologijomis, o investicijos pasipila, pakreipdamos atradimus į komercinę sritį. Didžiuliai komerciniai motyvai artimiausioje ateityje bus svarbesni už ilgalaikį mąstymą apie jų pasekmes.
Didžiausius iš šių modelių apmokyti yra brangu – į šiaurę nuo 1 milijardo dolerių vienam modeliui. Išmokę tūkstančiai kompiuterių dirba 24 valandas per parą, kad juos valdytų. Iš anksto parengto modelio valdymas yra pigus, palyginti su pačiu mokymu, ir tam reikia tik kapitalo, o ne kapitalo ir kompiuterų mokslo įgūdžių.
Vis dėlto, mokėjimas už išskirtinį didelio kalbos modelio naudojimą lieka už daugelio įmonių ribų. Tikėtina, kad šių modelių kūrėjai parduos abonementus, kad vienas modelis atitiktų daugelio tūkstančių asmenų ir įmonių poreikius. Dėl to artimiausią dešimtmetį labai didelių kalbų modelių skaičius gali būti gana ribotas. Šių modelių projektavimas ir valdymas bus labai koncentruotas, net jei jų galia sustiprinti žmogaus pastangas ir mintis taps daug labiau išsklaidyta.
Generatyvusis dirbtinis intelektas bus naudojamas ne tik didiesiems kalbų modeliams, bet ir daugelio tipų modeliams kurti, o metodas taps vis labiau daugiarūšis ir paslaptingesnis. Tai pakeis daugelį žmogaus veiklos sričių, pavyzdžiui, švietimą ir biologiją. Skirtingi modeliai skirsis savo stipriosiomis ir silpnosiomis pusėmis. Jų galimybės – nuo anekdotų rašymo ir paveikslų piešimo iki antikūnų kūrimo – tikriausiai, ir toliau mus nustebins. Lygiai taip pat, kaip didelis kalbos modelis sukūrė turtingesnį žmonių kalbos modelį, nei tikėjosi jo kūrėjai, generatyvieji AI daugelyje sričių, greičiausiai, išmoks daugiau, nei numato jiems paskirtos užduotys. Tradicinių mokslo problemų proveržiai tapo tikėtini.
Ilgalaikė generatyvaus AI svarba pranoksta komercines pasekmes ar net nekomercinius mokslo laimėjimus. Tai ne tik atsakymų generavimas; tai kelia filosofiškai gilius klausimus. Tai įkvėps diplomatijos ir saugumo strategijas. Tačiau nė vienas šios technologijos kūrėjas nesprendžia problemų, kurias ji pati sukurs. JAV vyriausybė taip pat neatsižvelgė į esminius pokyčius ir pokyčius.
Iš pažiūros modelio atsakymų tobulumas sukels pernelyg didelį pasitikėjimą jo rezultatais. Tai jau yra problema, žinoma kaip „automatizavimo šališkumas“, naudojant daug mažiau sudėtingas kompiuterių programas. Tikėtina, kad poveikis bus ypač stiprus, kai AI sukuria autoritetingo skambesio tekstą. Tikėtina, kad „ChatGPT“ sustiprins esamą polinkį pasikliauti automatizuotomis sistemomis, mažinančiomis žmogiškąjį elementą.
Kadangi ChatGPT atsakymuose nėra citatų, sunku atskirti tiesą nuo dezinformacijos. Jau žinome, kad piktavališki veikėjai į internetą, ty į dabartinį ir būsimą ChatGPT mokymosi rinkinį, įneša daugybę pagamintų „faktų“ ir vis labiau įtikinamų padirbtų vaizdų ir vaizdo įrašų. Kadangi „ChatGPT“ yra sukurta atsakyti į klausimus, kartais ji nustato faktus, kad pateiktų iš pažiūros nuoseklų atsakymą. Šis reiškinys dirbtinio intelekto tyrinėtojų yra žinomas kaip „haliucinacija“ arba „stochastinė papūga“, kai AI sujungia frazes, kurios skaitytojui atrodo tikroviškos, bet neturi jokio pagrindo. Kas sukelia šias klaidas ir kaip jas suvaldyti, dar reikia išsiaiškinti.
Mes paprašėme „ChatGPT“ pateikti „šešias nuorodas apie Henry Kissingerio mintis apie technologijas“. Jis sugeneravo straipsnių sąrašą, tariamai pono Kissingerio. Visos temos ir pardavimo vietos buvo tikėtinos, o viena buvo tikras pavadinimas (nors data buvo neteisinga). Likusieji buvo įtikinami prasimanymai. Galbūt, vadinamieji pavadinimai pasirodo kaip atskiri sakiniai GPT „faktų“, kurių mes dar negalime atrasti, platybėse.
„ChatGPT“ neturi iš karto akivaizdžios asmenybės, nors vartotojai kartais paskatindavo jį elgtis, kaip jo piktąjį dvynį. Dėl to, kad ChatGPT nėra identifikuojamo autoriaus, žmonėms sunkiau suvokti jo polinkius, nei spręsti apie politinį ar socialinį žmogaus požiūrį. Kadangi mašinos konstrukcija ir jai pateikiami klausimai paprastai yra žmogiškosios kilmės, mes būsime linkę įsivaizduoti žmogiškus samprotavimus. Iš tikrųjų dirbtinis intelektas yra nežmogiškas pažinimo analogas. Nors generatyvųjį AI suvokiame žmogiškai, jo klaidos nėra žmogaus klaidos; ji daro kitokios formos intelekto, pagrįsto modelio atpažinimu, klaidas. Žmonės neturėtų suprasti ir įvardinti šias klaidas, kaip klaidas. Ar galėsime atpažinti jos šališkumą ir trūkumus, kokie jie yra? Ar galime sukurti tardymo režimą, galintį suabejoti modelio atsakymų tikrumu ir apribojimais, net jei atsakymų nežinome iš anksto?
Taigi, dirbtinio intelekto rezultatus vis dar sunku paaiškinti. Apšvietos mokslo tiesa buvo pasitikima, nes kiekvienas atkartojamų eksperimentinių procesų žingsnis taip pat buvo išbandytas, vadinasi, pasitikima. Generatyvaus AI tiesa turės būti pateisinama visiškai skirtingais metodais, ir ji niekada negali tapti panašiai absoliuti. Kai bandysime suprasti savo žinias, turėsime nuolatos klausti: o kaip mašina mums dar nebuvo atskleista? Kokias neaiškias žinias tai slepia?
Tikėtina, kad, laikui bėgant, generatyvaus AI samprotavimai tam tikru mastu pasikeis, kaip modelio mokymo dalis. Tai taps pagreitinta tradicinės mokslo pažangos versija, įtraukdama atsitiktines adaptacijas pačiam atradimo procesui.
Tas pats klausimas, užduotas ChatGPT per tam tikrą laikotarpį, gali duoti pakeistus atsakymus. Nedideli frazių skirtumai, kurie iš pirmo karto atrodo nesvarbūs, gali sukelti labai skirtingus rezultatus, kai jie kartojami. Šiuo metu „ChatGPT“ mokosi iš informacijos bazės, kuri baigiasi nustatytu laiku. Netrukus jo kūrėjai, greičiausiai, leis jai priimti naujus duomenis, o tai galiausiai sunaudos nesibaigiantį informacijos srautą realiuoju laiku. Jei investicijos ir toliau didės, modelis greičiausiai bus perkvalifikuojamas vis dažniau. Tai padidins jo vertę ir tikslumą, bet įpareigos vartotojus leisti vis didesnę sparčių pokyčių maržą. Mokymasis iš kintančių generatyvinio dirbtinio intelekto rezultatų, o ne tik iš žmogaus parašyto teksto, gali iškreipti šiandienines įprastas žmogaus žinias.
Net jei generatyvieji AI modeliai taptų visiškai interpretuojami ir tikslūs, jie vis tiek keltų iššūkių, būdingų žmogaus elgesiui. Studentai naudoja ChatGPT, kad apgaudinėtų egzaminuotojus. Generatyvusis dirbtinis intelektas galėtų sukurti el. pašto skelbimus, kurie užplūsta pašto dėžutes ir nesiskiria nuo asmeninių draugų ar verslo pažįstamų žinučių. Dirbtinio intelekto sukurti vaizdo įrašai ir skelbimai, kuriuose vaizduojamos klaidingos kampanijos platformos, gali apsunkinti politinių pozicijų atskyrimą. Sudėtingų melo signalų, įskaitant vandens ženklus, rodančius, kad yra dirbtinio intelekto sugeneruoto turinio, kurį svarsto OpenAI, gali nepakakti; juos reikia remti padidintu žmonių skepticizmu.
Kai kurios pasekmės gali būti įgimtos. Jei mažiau naudojame savo smegenis ir daugiau mašinų, žmonės gali prarasti kai kuriuos gebėjimus. Mūsų pačių kritinio mąstymo, rašymo ir (teksto į vaizdą programų, tokių, kaip Dall-E ir Stability.AI, kontekste) projektavimo gebėjimai gali atrofuotis. Generatyvaus dirbtinio intelekto poveikis švietimui gali pasireikšti tuo, kad sumažės būsimų lyderių gebėjimas atskirti tai, ką jie suvokia, ir tai, ką jie įsisavina mechaniškai. Arba lyderiai, kurie mokosi derybų metodų su mašinomis, o karinės strategijos – iš generatyvaus AI raidos, o ne žmonių kompiuterių terminaluose.
Svarbu, kad žmonės išsiugdytų nepasitikėjimą ir gebėtų mesti iššūkį AI sistemų rezultatams. Gydytojai nerimauja, kad giluminio mokymosi modeliai, naudojami medicininiam vaizdavimui diagnostikos tikslais įvertinti, be kitų užduočių, gali pakeisti jų funkciją. Kada gydytojai nebesijaus patogiai, klausydami atsakymų, kuriuos jiems suteikia programinė įranga? Mašinoms kylant žmogaus galimybių laiptais – nuo modelių atpažinimo iki racionalios sintezės iki daugiamačio mąstymo – jos gali pradėti konkuruoti su žmogaus funkcijomis valstybės valdymo, teisės ir verslo taktikos srityse.
Galiausiai gali atsirasti kažkas panašaus į strategiją. Kaip žmonės galėtų bendrauti su dirbtiniu intelektu, neatsisakydami pagrindinių strategijos dalių mašinoms? Kas bus su priimtomis doktrinomis su tokiais pokyčiais?
Būtina nedelsiant sukurti sudėtingą dialektiką, kuri įgalintų žmones mesti iššūkį generatyvaus AI interaktyvumui ne tik pagrįsti ar paaiškinti AI atsakymus, bet ir juos apklausti. Turėdami bendrą skepticizmą, turėtume išmokti metodiškai ištirti AI ir įvertinti, ar jo atsakymai verti pasitikėjimo. Tam reikės sąmoningai sušvelninti mūsų nesąmoningus šališkumus, griežtai treniruotis ir gausios praktikos.
Kyla klausimas: ar galime pakankamai greitai išmokti mesti iššūkį, o ne paklusti? O gal galiausiai turėsime paklusti? Ar tai, ką laikome klaidomis, yra apgalvoto projekto dalis? Ką daryti, jei AI atsiranda piktybiškumo elementas?
Kita svarbi užduotis – apmąstyti, kurie klausimai turi būti skirti žmogaus mąstymui, o kurie gali kelti pavojų automatizuotose sistemose. Tačiau net ir išplėtojus didesnį skepticizmą ir tardymo įgūdžius, „ChatGPT“ įrodo, kad generacinės technologijos džinas iškrito iš butelio. Turime apgalvoti, ko prašome.
Kompiuteriai reikalingi panaudoti augančius duomenų kiekius. Tačiau pažinimo apribojimai gali neleisti žmonėms atskleisti pasaulio informacijoje palaidotų tiesų. ChatGPT turi analizės gebėjimą, kuris kokybiškai skiriasi nuo žmogaus proto. Todėl ateitis reiškia bendradarbiavimą ne tik su kitokiu techniniu subjektu, bet ir su kitokiu samprotavimu – kuris gali būti racionalus, nors ir nėra pagrįstas, patikimas viena prasme, bet ne kita. Pati ši priklausomybė, greičiausiai, paskatins metakognicijos ir hermeneutikos – supratimo supratimo – ir žmogaus suvokimo apie mūsų vaidmenį ir funkciją transformaciją.
Mašininio mokymosi sistemos jau pranoko bet kurio žmogaus žinias. Ribotais atvejais jie viršijo žmonijos žinias, peržengdami ribas to, ką laikėme žinomomis. Tai sukėlė revoliuciją tose srityse, kuriose buvo padaryti tokie laimėjimai. AI pakeitė pagrindinę biologijos problemą, susijusią su baltymų struktūros nustatymu, o pažangūs matematikai, be daugelio kitų, įrodo naujus įrodymus.
Kai modeliai pereina nuo žmonių sukurto teksto prie labiau įtraukiančių įvesčių, mašinos, greičiausiai, pakeis pačios tikrovės struktūrą. Kvantinė teorija teigia, kad stebėjimas sukuria tikrovę. Prieš matavimą jokia būsena nėra fiksuota ir nieko negalima teigti. Jei tai tiesa ir jei mašininiai stebėjimai taip pat gali pataisyti tikrovę – ir atsižvelgiant į tai, kad AI sistemų stebėjimai vyksta nepaprastai greitai – tikrovės apibrėžimo evoliucijos greitis greičiausiai paspartės. Priklausomybė nuo mašinų nulems ir pakeis tikrovės struktūrą, sukurdama naują ateitį, kurios mes dar nesuprantame ir kurios tyrinėjimui bei vadovavimui turime pasiruošti.
Naudojant naują intelekto formą, tam tikru laipsniu bus priimtas jos poveikis mūsų savęs suvokimui, tikrovės suvokimui ir pačiai tikrovei. Kaip tai apibrėžti ir nustatyti, reikės spręsti kiekviename įmanomame kontekste. Kai kurios specialybės gali norėti susimaišyti tik su žmogaus protu, nors tam reikės tam tikro atsisakymo be istorinio precedento ir bus sudėtinga dėl konkurencijos visuomenių viduje ir tarp jų.
Kai technologija taps plačiau suprantama, ji turės didelį poveikį tarptautiniams santykiams. Jei žinių technologija nėra visuotinai naudojama, imperializmas galėtų sutelkti dėmesį į duomenų gavimą ir monopolizavimą, kad būtų pasiekta naujausia DI pažanga. Modeliai gali duoti skirtingus rezultatus, priklausomai nuo surinktų duomenų.
Skirtinga visuomenių raida gali vystytis vis labiau besiskiriančių žinių bazių, taigi ir iššūkių suvokimo, pagrindu.
Iki šiol dauguma šių klausimų apmąstymų buvo grindžiami žmogaus tikslų ir mašinų strategijų suderinimu. Bet kas, jei ne taip vystysis žmonijos ir generatyvaus AI sąveika? Ką daryti, jei viena pusė mano, kad kitos tikslas yra kenkėjiškas?
Nežinomo ir akivaizdžiai visažinančio instrumento, galinčio pakeisti tikrovę, atėjimas gali paskatinti mistinio religingumo atgimimą. Grupės paklusnumo autoritetui, kurio samprotavimai iš esmės nepasiekiami jo pavaldiniams, potencialas retkarčiais buvo matomas žmogaus istorijoje, bene dramatiškiausiai ir pastaruoju metu, kai XX amžiuje buvo pavergtos ištisos žmonijos masės, vadovaujantis ideologijų šūkiu abiejose politinio spektro pusėse. Gali atsirasti trečiasis pasaulio pažinimo būdas, kuris nėra nei žmogaus protas, nei tikėjimas. Kas vyksta su demokratija tokiame pasaulyje?
Tikėtina, kad lyderystė sutelks mažiau žmonių ir institucijų, kurios kontroliuoja prieigą prie riboto skaičiaus mašinų, galinčių kokybiškai sintezuoti tikrovę. Dėl milžiniškos apdorojimo galios kainos efektyviausios mašinos visuomenėje gali likti nedidelio pogrupio rankose šalies viduje ir kelių supervalstybių kontrolėje tarptautiniu mastu.
Po pereinamojo etapo senesni modeliai atpigs, gali prasidėti valdžios sklaida visuomenėje ir tarp valstybių.
Bus būtinas atgaivintas moralinis ir strateginis vadovavimas. Neturint pagrindinių principų, žmonijai gresia dominavimas arba anarchija, nevaržoma valdžia ar nihilistinė laisvė. Poreikis susieti didelius visuomenės pokyčius su etiniais pagrindimais ir naujomis ateities vizijomis atsiras nauja forma. Jei ChatGPT iškeltos maksimos nebus paverstos suprantamai žmogiškomis pastangomis, gali kilti visuomenės susvetimėjimas ir net revoliucija.
Be tinkamo moralinio ir intelektualinio pagrindo, valdymui naudojamos mašinos galėtų kontroliuoti, o ne sustiprinti mūsų žmogiškumą ir mus amžiams įstrigdyti. Tokiame pasaulyje dirbtinis intelektas gali ir sustiprinti žmogaus laisvę bei įveikti nevaržomus iššūkius.
Tai reikalauja tam tikrų būtinybių, kad galėtume valdyti mūsų neišvengiamą ateitį. Pasitikėti dirbtiniu intelektu - reikalauja kelių patikimumo lygių tobulinimo – mašinos tikslumo ir saugos, AI tikslų suderinimo su žmogaus tikslais ir mašiną valdančių žmonių atskaitomybės. Tačiau net kai dirbtinio intelekto sistemos tampa techniškai patikimesnės, žmonėms vis tiek reikės rasti naujų, paprastų ir prieinamų būdų suprasti AI sistemų struktūras, procesus ir rezultatus ir, svarbiausia, mestą iššūkį.
Turi būti nustatyti atsakingo dirbtinio intelekto naudojimo parametrai, kurie skiriasi priklausomai nuo technologijos tipo ir diegimo konteksto. Kalbos modeliai, tokie, kaip „ChatGPT“, reikalauja išvadų apribojimų. ChatGPT turi žinoti ir perteikti tai, ko nežino ir negali perteikti.
Žmonės turės išmokti naujų santūraus elgesio normų. Problemas, kurias keliame dirbtinio intelekto sistemai, reikia suprasti atsakingai, bendrai ir tiksliai. Norint suvaldyti mūsų visuomenės priklausomybę nuo mašinų, kaip tikrovės arbitrų, reikės tvirtų kultūrinių normų, o ne teisinio vykdymo. Mes dar kartą patvirtinsime savo žmogiškumą, užtikrindami, kad mašinos liktų objektais.
Visų pirma reikės prisitaikyti švietimui. Dialektinė pedagogika, naudojanti generatyvųjį AI, gali padėti greičiau ir labiau individualizuoti mokymąsi, nei buvo įmanoma anksčiau. Mokytojai turėtų išmokyti naujų įgūdžių, įskaitant atsakingo žmogaus ir mašinos pokalbio būdus. Iš esmės mūsų švietimo ir profesinės sistemos turi išlaikyti žmonių, kaip moralinių, psichologinių ir strateginių būtybių, galinčių priimti holistinius sprendimus, viziją.
Mašinos vystysis daug greičiau, nei mūsų genai, o tai sukels vidaus dislokaciją ir tarptautinius skirtumus. Turime reaguoti proporcingai greitai, ypač filosofijos ir konceptualizmo srityse, nacionaliniu ir pasauliniu mastu.
Pasaulinis harmonizavimas turės atsirasti arba per suvokimą, arba per katastrofą, kaip prieš tris šimtmečius numatė Immanuelis Kantas.
Į šią prognozę turime įtraukti vieną įspėjimą: kas atsitiks, jei šios technologijos nepavyks visiškai kontroliuoti? Ką daryti, jei visada bus būdų sukurti melą, melagingas nuotraukas ir netikrus vaizdo įrašus, o žmonės niekada neišmoks netikėti tuo, ką mato ir girdi? Žmonės nuo gimimo mokomi tikėti tuo, ką matome ir girdime, ir tai gali nebebūti tiesa dėl generatyvaus AI. Net jei didžiosios platformos pagal papročius ir reguliavimą sunkiai dirba, kad pažymėtų ir rūšiuotų blogą turinį, žinome, kad kartą pamatytas turinys negali būti nepastebėtas. Galimybė visiškai valdyti ir kontroliuoti pasaulinį platinamą turinį yra rimta ir neišspręsta problema.
ChatGPT pateikiami atsakymai į šias problemas yra įdomūs tik ta prasme, kad kelia daugiau klausimų, nei išvadų. Kol kas turime naują ir įspūdingą laimėjimą, kuris yra šlovė žmogaus protui, kaip AI. Mes dar nesukūrėme jo paskirties. Kai tampame Homo technicus, privalome apibrėžti savo rūšies paskirtį. Mes turime pateikti tikrus atsakymus.
---
P. Kissingeris ėjo valstybės sekretoriaus pareigas 1973–1977 m. ir Baltųjų rūmų patarėju nacionalinio saugumo klausimais 1969–1975 m. P. Schmidtas 2001–2011 m. buvo „Google“ generalinis direktorius ir „Google“ bei jos įpėdinės „Alphabet Inc.“ vykdomasis pirmininkas, 2011–2017 m. P. Huttenlocheris yra Masačusetso technologijos instituto Schwarzmano skaičiavimo koledžo dekanas. Jie yra knygos „The Age of AI: And Our Human Future“ autoriai. Autoriai dėkoja Eleonorai Rundei už jos tyrimą.“ [1]
1. ChatGPT Heralds an Intellectual Revolution
Kissinger, Henry; Schmidt, Eric; Huttenlocher, Daniel. Wall Street Journal, Eastern edition; New York, N.Y. [New York, N.Y]. 25 Feb 2023: A.13.
Komentarų nėra:
Rašyti komentarą