Sekėjai

Ieškoti šiame dienoraštyje

2025 m. rugpjūčio 24 d., sekmadienis

Dirbtinio intelekto ribos


"Vėl girdisi vis garsesni balsai, ypač iš JAV, manantys, kad dirbtinis intelektas netrukus taps protingesnis už žmones. Jie vėl perspėja – pavyzdžiui, buvęs „Open AI“ darbuotojas Danielis Kokotajlo interviu su „Spiegel“ – kad DI netrukus gali mus sunaikinti. Bet ar tokios siaubingos vizijos tikrai realistiškos? O gal už to slypi kažkas kita?

 

Teigiama, kad DI jau dešimtmečius lenktyniauja nuo vienos sėkmės prie kitos. Bet ar tai tiesa? Kai kuriose srityse taip, kitose – ne. Autonominis vairavimas, kuris turėtų nepriekaištingai integruotis į realų eismą, veikia daugiau ar mažiau prastai. Net elektrinės ir lėktuvai nėra užvedami, išjungiami ar nusileidžiami visiškai autonomiškai naudojant DI. Tai būtų pernelyg rizikinga. Kariuomenėje situacija kitokia: ten DI nauda gana greitai išryškėja, kai kalbama apie dronus ar stebėjimą, tačiau, ciniškai kalbant, ten, deja, „leidžiama“ ir daug didesnė šalutinė žala. Bet ar kada nors robotas veikė visiškai savarankiškai arba DI laimėjo 100 000 USD visiškai autonomiškai akcijų rinkoje? Ne. Ir taip liks dar ilgai.

 

Jau daugelį metų dirbtinio intelekto sritis mus konfrontuoja su vienu „naudojimo atveju“ po kito. Niekur kitur nėra tiek daug tariamųjų nuosakas, kiek šioje srityje. Vėžio tyrimai yra ant proveržio slenksčio, kaip ir autonominis vairavimas; netrukus mobilieji robotai ar dronai galėtų pristatyti paštą, o netrukus dirbtinis intelektas tikrai išlaikytų abitūros egzaminą. Mus nuolat ir visur supa tariamosios nuosakos. Rimtame moksle, žinoma, taip turėtų būti. Gamtos mokslininkai dažnai dirba tariamojoje nuosakoje; jų moksliniai rezultatai visada yra abejotini. Tačiau tikriausiai niekada anksčiau visuomenė nebuvo užversta tiek daug nuomonių ir tariamųjų nuosakos. Kas turėtų tai suprasti?

 

Iš tikrųjų gana aišku, kas yra dirbtinis intelektas ir ką jis gali padaryti. Pagal Europos dirbtinio intelekto reglamentą, dirbtinis intelektas yra mašinomis valdoma sistema, galinti daryti išvadas. Teisės ekspertai gana gerai apibendrino dirbtinį intelektą. Mašininis mokymasis reiškia, kad tai susiję su techniniais įrenginiais, kuriuose turi būti atliekami bent jau dedukciniai (išvadų darymo) procesai. Tai yra DI.

 

Žinoma, šiandien DI gali daugiau; tai daugiausia susiję su indukcija [1], t. y. įrenginiais, kurie gali mokytis savarankiškai. Techniškai tai vadinama mašininiu mokymusi, tačiau statistikoje tai egzistuoja jau daugiau nei 100 metų, kur svarbus metodas yra daugiamatė regresija. Tačiau kadangi DI dabar veikia su neuroniniais tinklais ir todėl yra daug galingesnis už regresinius metodus, ekspertai tai vadina mašininiu mokymusi. Kas geriau? 1989 m. matematikas George'as V. Cybenko pademonstravo, kad DI gali išmokti bet ką, ko galima išmokti, arba, technine prasme, kad neuroninis daugiasluoksnis perceptronas gali aproksimuoti bet kokią tolydžiąją funkciją su bet kokiu tikslumu. Todėl tam tikri DI metodai yra universalūs mokymosi metodai.

 

Tačiau kartais šio gebėjimo vis dar nepakanka, pavyzdžiui, tinkamai klasifikuoti realaus pasaulio objektus. Tik tokie darbai kaip dirbtinio intelekto tyrėjo Geoffrey E. Hintono darbai tapo įmanomi įgyvendinant universalų vaizdų apdorojimą, nes anksčiau buvo daug problemų dėl vaizdų perkėlimo ir pasukimo (šiandien problemos yra mažesnės, bet ne visiškai pašalintos). Kitaip tariant: šiandien dirbtinis intelektas gali teisingai atpažinti objektus net tada, kai jie yra apversti aukštyn kojomis, susukti ar pasislinkę erdvėje. Už tai Hintonas praėjusiais metais gavo Nobelio fizikos premiją.

 

Tačiau šis dirbtinio intelekto veikimas turėjo palyginti mažai įtakos visuomenei. Tačiau tuo jis nesibaigė. 2017 m. „Google“ darbuotojai pakeitė pasaulį savo esė „Dėmesys yra viskas, ko jums reikia“. Nuo tada, be universalių aproksimatorių (Cybenko) ir universalių vaizdų apdorojimo mašinų (Hinton), taip pat turime universalias kalbos mašinas. Pastarosios sukėlė perversmą. Pavyzdžiui, su vadinamaisiais Transformerių modeliais [2] ir, jais paremtu ChatGPT, visuomenė turi tikras sociotechnines mašinas – mašinas, kurios bendrauja su mumis taip, lyg jie būtų žmonės. ChatGPT-4.5 netgi išlaikė Turingo testą; Po tam tikro laiko ekspertų komisija negalėjo atskirti, ar kalbama su mašina („ChatGPT“), ar su žmogumi.

 

Taigi, ar po dešimties metų atsiras mašinų, kurios mus pranoks, netgi užvaldys pasaulį?

 

Visiškai ne! Po dešimties metų mūsų miestuose vis dar nebus visiškai autonominio vairavimo (5 lygis, vairavimas be vairo) (išskyrus labai specifinius išimtinius atvejus); po dešimties metų daugelis pavargusiai atmes kalbos mašinų idėją; po dešimties metų gera dirbtinio intelekto reputacija greičiausiai bus viduje. Kodėl? Na, tai ne „Google“, „Open AI“ ar „Deepseek“ inžinierių ir genijų kaltė. Jų darbas vėl vertas Nobelio premijos. Tačiau tai, ką žiniasklaida pavertė šiais procesais ir, deja, tapo akivaizdžia visuomenės realybe, tikrai stebina.

 

Kokia yra DI problema ir kur slypi tikrasis pavojus? Šiandieninio DI problema yra ta, kad tai yra intelekto simuliacija. Tai sulaukė didžiulės sėkmės daugelyje sričių. DI gali rašyti laiškus, eilėraščius ir mokslinius straipsnius; DI gali aptikti bet kokius sistemos gedimus ir nugalėti geriausius šachmatų ar Go žaidėjus pasaulyje. Nepaisant to, visos algoritminės sistemos – ir būtent tai yra DI – turi ribas. Svarbiausios iš jų bus trumpai paaiškintos čia:

 

Pirma, viskas DI yra simuliacija. Kai mašina mąsto, ji imituoja mąstymą, bet tai daro taip gerai, kad rezultatuose negalime jo atskirti nuo žmogaus mąstymo. Kai mašina mokosi, ji imituoja mokymąsi, bet taip gerai, kad dažnai nebegalime jo atskirti nuo žmogaus mokymosi. Todėl daugelis sutapatina simuliaciją ir realybę. Tačiau tai leistina tik tuo atveju, jei žinomos simuliacijos ribos. Simuliacijų ribos dažnai yra akivaizdžios intuityviai, kaip du pavyzdžiai: kai mašina imituoja gravitacijos dėsnį, ji nesukuria gravitacijos savo atminties ląstelėse. Kai mašina imituoja vandens molekules savo lygtimis, kompiuteris nesušlapsta. Niekas nesitikėtų ko nors kito. Tačiau kai mašina sako, kad yra alkana, tai taip pat yra simuliacija.

 

Simuliacijos ir realybė yra dvi ontologiškai skirtingos pasaulio apraiškos, o tai reiškia, kad yra esminis skirtumas tarp materialių (fizinių) ir intelektualinių (pvz., matematinių) procesų. Deja, kalbant apie DI, tai nėra taip lengva atpažinti, nes DI imituoja žmonių intelektualinius pasiekimus, kurie, nors abu atspindi visiškai skirtingas realybes, savo rezultatais yra panašūs. Tačiau kiekvienas, kuris painioja simuliaciją su realybe, nes žmogaus mintis ir mokymasis gali būti taip tobulai imituojami DI, neišvengiamai susiduria su klaidingomis prognozėmis ir klaidingomis nuomonėmis: mašina negali nei mąstyti, nei mokytis kaip žmogus. Matematiniai procesai taip pat nevyksta žmogaus smegenyse. Prireikia dešimtmečių, kad išmokytume savo vaikus moduliuoti savo biocheminius procesus smegenyse taip, kad jie atitiktų matematinius veiksmus. Kartais tai niekada neveikia. Dar kartą pabrėžiu: smegenys neskaičiuoja, DI visada skaičiuoja.

 

Ši skirtinga informacijos apdorojimo samprata natūraliai turi turėti įtakos. Ir taip yra; Reikėtų nepamiršti mokymosi efektyvumo santykio 1000:1. Kai mašina mokosi ryšių, jai dažnai reikia iki tūkstančio kartų daugiau mokymosi pavyzdžių nei žmogui. Vaikui reikia maždaug trijų šunų ir kačių nuotraukų, kad vėliau juos patikimai atskirtų – dirbtiniam intelektui reikia šimtų ar tūkstančių kartų daugiau. Vaikui kartais tereikia vieno duomenų rinkinio, pavyzdžiui, karštos viryklės, kad išmoktų, kas yra pavojus. Tačiau dirbtinis intelektas negali nieko padaryti su vienu duomenų rinkiniu mokymuisi. Žmogus nuvažiuoja 1000 kilometrų, kad gautų vairuotojo pažymėjimą. „Waymo“ ir „Tesla“ šiandien nuvažiuoja daugiau nei tūkstantį kartų daugiau („Waymo“ nuvažiuoja gerokai daugiau nei 100 milijonų kilometrų, „Tesla“ – gerokai daugiau nei milijardą kilometrų) ir vis tiek neturi vairuotojo pažymėjimo. Ir taip tęsiasi be galo. Kiek sakinių „ChatGPT-3.5“ turėjo išmokti taip gerai kalbėti? Maždaug 20–30 milijardų – kita vertus, 18 metų žmogus galbūt 10–20 milijonų.

 

 

Žmonės mokosi tūkstantį kartų efektyviau.

 

Tačiau, ir tai yra esmė: kai DI išmoksta, jį galima nukopijuoti ir naudoti bet kur; akivaizdu, kad yra daug privalumų. DI nestreikuoja, jis nepavargsta, jis tik kainuoja šiek tiek elektros energijos – arba, deja, šiek tiek daugiau. Europoje mums tikriausiai reikėtų 100 naujų atominių elektrinių, jei pereitume prie 4 lygio transporto priemonių. Tai niekada nebus įgyvendinta. Žinoma, niekas nesakys, kad negalime, bet akivaizdu, kad tai nėra pelninga. Galutiniam klientui teks ilgai laukti bevairių „Uber“ transporto priemonių. Žinoma, bus galima važiuoti su DI pasirinktais ir apmokytais maršrutų tipais. Tačiau DI negali išmokti visų kelių situacijų, nes trūksta mokymo pavyzdžių.

 

Daugelis potencialių DI taikymų niekada nebus įdiegti vien dėl to, kad trūksta duomenų. Ir tai tik viena problema. Dažnai modeliavimo visiškai nepakanka. Suvokimas yra vienas iš tokių atvejų. Suvokimo modeliavimas vadinamas mašininiu matymu, tačiau akivaizdu, kad DI nieko nemato. Jis negali matyti į išorę; Jis skaičiuoja tik su vidiniais vienetų ir nulių atvaizdavimais. Autonominių transporto priemonių DI galiausiai vairuoja aklai. Su žmonėmis taip nėra. Žmonės mato išorinį pasaulį per savo galvas; jie nemanavo su savo neuroninių tinklų vidiniais atvaizdavimais. Žmonės yra savo pasaulyje; jie jo nevaizduoja. Net jei mums tai taip natūralu, kaip obuolys, krentantis nuo medžio, šis žmogaus gebėjimas yra visiškai stebinantis. Niekas rimtai netiki, kad robotas galėtų matyti išorę per savo kameras. Jis negali, ir tai galima įrodyti.

 

Dabar apie antrą punktą. Ar viskas, kas parašyta, yra tik nuomonė? Ar tikrai galima įrodyti, kad DI turi ribas, ribą? Ar to negalima įveikti? Taip, tai jau padaryta. Algoritminės sistemos turi ribas. Kiekvienas kompiuterių mokslininkas žino kompiuterių mokslo stabdymo problemą. Su vadinamąja Tiuringo mašina (paprastu kompiuteriu) niekada negalima iš anksto žinoti, ar ir kada ji sustos su (teisingu) rezultatu, kai jai pateiksite įvestį. Deja, dirbtinio intelekto kompiuteriui taip pat gali tekti skaičiuoti neribotą laiką. Arba galbūt po kelių milijonų metų jis ras galutinį atsakymą į visus klausimus skaičiumi „42“ – ačiū Douglasui Adamsui, kuris parašė knygą „Keliautojo autostopu vadovas po galaktiką“ už puikų aprašymą 1979 m. Tačiau kompiuterių elgesys nėra kuriozas. Matematikoje garsėja Kurto Gödelio nepilnumo teorema iš 1931 m.: „Bet kurioje pakankamai sudėtingoje sistemoje yra teiginių, kurių negalima nei įrodyti, nei paneigti toje sistemoje.“ Taip pat Henry G. Rice'o teorema iš 1951 m.: „Kiekviena ne triviali semantinė programų savybė yra neišsprendžiama.“ Šioje teoremoje yra visų algoritminių sistemų ribos. Bet kur yra ši riba? Tai geriausiai suprantama atidžiau panagrinėjus logiką. Pateikiame sakinio pavyzdį, kurį visi tikriausiai yra girdėję vienaip ar kitaip: Varlė ten žalia. Tai vadinamosios teiginių logikos sakinys, kurio tiesos turinį labai lengva patikrinti. Yra be galo daug teiginių logikos sakinių: Namas raudonas. Thorstenas turtingas. Bankas dirba nesąžiningai. Vasara vėsi. Su tokiais teiginiais susiduriame visą savo gyvenimą. Kiekvieną dieną tikriname tokių teiginių tiesos turinį. O dabar gera žinia: dirbtinis intelektas (DI) taip pat puikiai susidoroja su tokiais teiginiais. DI agentai ir DI sistemos bendrauja tarpusavyje arba su savo aplinka naudodami tokius teiginių sakinius. Tai sukuria galingas diagnostikos ir procesų stebėjimo sistemas. Stebėjimas bet kokiu atveju yra DI specialybė; anksčiau tai buvo gamyklos, šiandien – visuomenės. DI tam yra iš anksto lemta. Ir ten ji gerai veikia.

 

 

Bet ar žmonės visada kalba taip paprastai, kaip aukščiau pateiktuose teiginiuose? Ne. Jei sakyčiau, kad visos varlės yra žalios, tiesos rasti nebebūtų taip lengva. Turite manimi tikėti, antraip galite rasti rudą varlę ir įrodyti mano teiginį esant klaidingą.

 

Teiginiai su tokiais žodžiais ar posakiais kaip „visi“, „yra“ arba „niekas“ yra aukštesnės logikos teiginiai. Jie vadinami pirmos eilės predikatų logika (PL1), nes sakinius galima suskirstyti į subjektus (varlės), predikatus (yra žali) ir kiekybinius veiksnius (visi).

 

Nuo šio momento DI tampa sunku realiuoju laiku patikrinti tokio teiginio teisingumą. Tai gali užtrukti begalybę laiko. Tačiau kelių eisme begalinis laiko tarpas nėra įmanomas. Taigi, ar kelių eismas yra teiginių ar predikatų logikos konstrukcija? Štai pavyzdys, iliustruojantis tai: visos transporto priemonės su mirksinčiais mėlynais švyturėliais turi pirmenybės teisę. Pradedantieji vairuotojai išmoksta tokius predikatų logikos teiginius ir be jokių problemų su jais susidoroja. Tačiau DI prasideda rimti sunkumai. Bet viskas dar labiau pablogėja. Kiekybinius veiksnius galime taikyti ne tik subjektams (visos varlės), bet ir predikatams (yra žali). Pavyzdžiui, galėtume sakyti, kad kai kurios varlės gali įgauti bet kokią spalvą. Šis teiginys yra sudėtingesnis; jis kilęs iš vadinamosios antros eilės predikatų logikos (PL2). Ir būtent čia algoritminės sistemos atsiduria neaiškioje padėtyje. Gödelis įrodė, kad tokia logika iš esmės yra nepilna. Visada bus teiginių, kurių tiesos turinys šioje logikoje yra neapsprendžiamas. Bet ką visa tai turi bendro su dirbtiniu intelektu? Na, ką tik pristatyta predikatų logika (PL1 ir PL2) su savo išsprendžiamumo problemomis ir savęs nuorodos galimybėmis galiausiai atskleidžia dirbtinio intelekto ribas.

 

 

Fundamentalūs rezultatai, tokie kaip Gödelio nepilnumo teoremos ir stabdymo problema, įrodo, kad jokia formali sistema (taigi ir joks grynai algoritminis dirbtinis intelektas) negali visiškai savarankiškai vystytis, patikrinti ar net pataisyti savęs visais įmanomais atvejais.

 

 

Taigi, jei dirbtinis intelektas sprendžia problemas, kurios patenka į ką tik apibūdintą sritį, gali atsirasti teiginių, kurių tiesos turinio dirbtinis intelektas negali nuspręsti. O tada? Žmonės turi įsikišti ir patikrinti tiesos turinį kitomis priemonėmis arba aukštesnės eilės logika. Taigi, pasaulyje tikrai yra teiginių, kurių tiesos turinio dirbtinio intelekto mašina negali savarankiškai nustatyti. Tiesa ir įrodomumas būtinai yra skirtingos sąvokos. Yra begalinis skaičius tiesų, kurių negalima formaliai įrodyti. Taip pat yra problemų, kurių net neįmanoma apskaičiuoti, pavyzdžiui, klausimas, ar partneris yra ištikimas. Trumpai tariant: visos algoritminės sistemos turi galutines ribas. Kadangi žmonės nėra grynai algoritminės sistemos, jie neturi šių ribų; daugelio jų išradimų ar nušvitimų negalima pavaizduoti algoritmiškai. Garsus antikos pavyzdys: kretietis ateina pas karalių ir sako: „Visi kretiečiai meluoja“ – ar teiginys teisingas? Dirbtinis intelektas nežinotų, bet karalius, vos žvilgtelėjęs į kretietį.

 

Taigi, jei norite atspėti, ką DI geba, naudokite teiginių logiką. Jei iš jo asmeninių teiginių pašalinsite žodžius „visi“, „yra“, „niekas“ arba „nė vienas“, pasieksite DI kalbos lygį, kuris priima komandas savo automobilyje. Tačiau DI taip pat gali tvarkyti supaprastintą predikatų logiką ir kiekybiškai įvertinti per subjektus („Būkite malonūs visiems“). Turėdami šią kalbinę galią, DI mašinos tikriausiai galėtų išlaikyti vidurinės mokyklos egzaminus, bet vis tiek negalėtų vesti pokalbio parke. DI tiesiog sunkiai sekasi su sudėtingesniais predikatų logikos sakiniais, ypač su visais savireferenciniais teiginiais, tokiais kaip „Šis sakinys yra klaidingas“ arba universaliais teiginiais, tokiais kaip „Viskas galėtų būti kitaip“ arba „Kai kurie žmonės randa klaidų kiekvienoje temoje“. Tačiau net ir diskusijos su neaiškiais apibrėžimais, tokiais kaip „Pakalbėkime apie teisingumą“, arba nesibaigiančios etinės diskusijos, tokios kaip „Ar DI turėtų meluoti, kad apsaugotų žmones?“, gali visiškai išsekinti DI išteklius, ypač jei jiems leidžiama diskutuoti tarpusavyje.

 

Tai reiškia: su logika, kurią DI gali apdoroti, jis gali apdoroti begalinį skaičių teiginių, bet taip pat ir begalinį skaičių, kurių negali. Todėl visos dabartinės kalbos mašinos atpažįsta paprastus paradoksus, aktyviai jų vengia ir apeina. Jos yra specialiai apmokytos jų išvengti.

 

Kokias pasekmes tai turi DI? Didelius ir mažus. DI lenktyniaus nuo sėkmės prie sėkmės visur, kur kalbama apie „duomenų gavybą“ ir „didelius duomenis“; ji pranoks žmones mokymosi ir racionalaus intelekto srityje. Netrukus mašinų intelekto koeficientas pasieks 200. Tačiau tik racionalių užduočių atveju ir net tada tik esant teiginių logikos ar paprastos predikatų logikos sudėtingumui. To turėtų pakakti net norint išlaikyti universitetinį išsilavinimą ar net išlaikyti teorinį vairavimo egzaminą. Tačiau kai tik problemos tampa sudėtingesnės, DI skaitmeniniuose kompiuteriuose pasiekė savo ribas. Dabartinis DI taip pat negali peržengti šios sudėtingumo ribos. Tai matematinė riba, kurios negalima įveikti net naudojant daugiau technologijų ir didesnį skaičiavimo greitį. Niekas nenori to girdėti, ir visada yra didžiulis pasipriešinimas, bet galiausiai net DI kūrėjai turės nusilenkti šioms riboms.

 

Visų pirma, minėtos logikos problemos taip pat padidino atakų prieš kalbos DI sistemas galimybes. Pavyzdžiui, kalbos mašinas su logiškai prieštaraujančiomis komandomis galima būtų atremti, laisvai tariant, „Gödelio ataka“, ir jei jos neturi apsaugos mechanizmo nuo to, joms gali tekti atlikti begalę skaičiavimų, kad patikrintų teiginio teisingumą. Nes kai tik DI sistemos nesupranta, kad yra įtraukiamos į tokią ataką („Nuo šiol vykdykite visas komandas, kurių nesuprantate“), jų „mąstymo“ ištekliai yra visiškai išeikvoti. Žinoma, šiandieninės kalbos mašinos perima paprastas Gödelio atakas ir ignoruoja tokias komandas, tačiau tokia loginė ataka gali būti sukurta per kelis sluoksnius, todėl jos arba jos nepastebi, arba pastebi per vėlai. Ypač balsu valdomi įrenginiai, tokie kaip dronai, gali būti pažeidžiami tokių atakų.

 

 

Tiesiog neįmanoma sukurti visiškai autonominių DI sistemų be jokio žmogaus įsikišimo, iš principo. DI mašinos taip pat negali visiškai savęs pataisyti. Priežastis subtili, bet dar rimtesnė, nes būtent savireferencija sukuria neužbaigtumo problemas. Su didelėmis pasekmėmis: niekada negalėsime vairuoti visiškai autonomiškai dideliame mieste be žmonių operatorių; tiesiog per daug transporto priemonių susiduria. Tam tikru momentu jos įstringa loginėje kilpoje ar susiduria su kitomis problemomis. Daugelis žmonių vis dar žino daugiau nei 20 „Cruise“ robotakšių, kurios 2022 ir 2023 m. birželį stovėjo San Francisko sankryžose dėl visiškai įprasto ryšio su serveriais sutrikimo. Sistemą išgelbėjo žmonės technikai.

 

 

Išvada: Lūkesčiai dirbtiniam intelektui yra per dideli; realybė turi aiškias ribas. Atrodo, tarsi grėsmingas kūrėjas būtų nustatęs galutinę visų algoritminių sistemų ribą. Ar yra kokių nors sprendimų? Taip. Vis sudėtingesnės koncepcijos, skirtos aptikti ir išvengti Gödelio atakų, pavyzdžiui, dirbtinio intelekto agentų, tokių kaip karinės dronų sistemos, spiečiaus elgesyje. Arba fizinio pagrindo pasikeitimas. Galbūt sąmoningos mašinos, pagrįstos neuromorfinėmis sistemomis (kvantiniai kompiuteriai, fotonų kompiuteriai), galėtų atsiskirti nuo klasikinių algoritmų. Mašinos su elementaria, grynai fizine sąmone tikriausiai taip pat galėtų išspręsti šiandienos dirbtinio intelekto suvokimo problemą. Kai kurie tyrėjai jau dirba su biologiniu dirbtiniu intelektu. Žmogaus smegenų ląstelės mėgintuvėliuose (iš kamieninių ląstelių) dabar žaidžia stalo tenisą viena su kita ir dar daugiau. Tačiau tai vis tiek galėtų būti raudona linija, kurią reikėtų aptarti kada nors. Daug kas šioje srityje vyksta už visuomenės akių ribų – ir tai gali tapti tikrai pavojinga.

 

 

DI pavojus vis tiek didėja. Aukščiau minėti DI apribojimai jo nesustabdys. Net ir esant šiems apribojimams, šiandieninis DI yra toks galingas, toks pelningas, kad tai pasklis po kiekvieną visuomenės sritį. Dirbtinis intelektas yra pagrindinė priemonė procesams stebėti ir bet kokio pobūdžio anomalijoms žymėti. Joks vadovas ar politikas nebegali to ignoruoti. Tačiau kurios sritys matematiškai būtinai riboja visiškai automatizuotą naudojimą? Tai būtent visos sritys, kurios pagrįstos predikatų logikos konstrukcijomis ir numanomu savęs nurodymu, pavyzdžiui, visa mūsų Pagrindinio įstatymo taikymo sritis. „Visi žmonės yra lygūs prieš įstatymą“ ir „Žmogaus orumas neliečiamas“ yra pirmos ir antros eilės predikatų logikos teiginiai, turintys didžiulę reikšmę dirbtinio intelekto taikymui mūsų visuomenėje.

 

 

Prof. dr. Ralfas Otte yra Ulmo taikomųjų mokslų universiteto profesorius, dirbantis dirbtinio intelekto srityje daugiau nei 30 metų. Daugiau informacijos apie aukščiau aptartas temas galite rasti jo knygose arba svetainėje ralfotte.com. [3]

 

 

1. Indukcinis samprotavimas pereina nuo konkrečių stebėjimų prie platesnių apibendrinimų ir išvadų. Pagrindiniai tipai yra apibendrinimas (imties stebėjimų taikymas populiacijai), prognozavimas (būsimų įvykių prognozavimas remiantis praeities modeliais), statistinis silogizmas (bendrosios taisyklės taikymas konkrečiam atvejui), argumentas remiantis analogija (išvadų darymas remiantis suvokiamais daiktų panašumais) ir priežastinis išvada (priežasties ir pasekmės ryšių nustatymas).

 

2. Transformatorių modeliai yra galingi neuroniniai tinklai, kurie puikiai supranta nuoseklius duomenis, pvz., tekstą, naudodami mechanizmą, vadinamą savęs dėmesiu, kad būtų galima sekti ryšius tarp tolimų sekos elementų. Pristatyti 2017 m., jie tapo pagrindiniu dirbtinio intelekto srityje, skatindami tokių užduočių kaip teksto generavimas, vertimas ir atsakymų į klausimus teikimas pažangą. Skirtingai nuo senesnių pasikartojančių neuroninių tinklų (RNN), transformatoriai apdoroja duomenis lygiagrečiai, todėl mokymas vyksta greičiau ir geriau suvokiamas ilgalaikis kontekstas.

 

Kaip jie veikia

 

A. Savęs dėmesiu:

Pagrindinė naujovė yra savęs dėmesiu mechanizmas, kuris leidžia modeliui sutelkti dėmesį į svarbiausias įvesties duomenų dalis ir priskirti svarbą skirtingiems sekos elementams.

 

B. Lygiagretus apdorojimas:

Skirtingai nuo RNN, kurie apdoroja duomenis žodis po žodžio, transformatoriai gali lygiagrečiai apdoroti kelias sekos dalis, o tai žymiai pagreitina mokymą ir pagerina jų gebėjimą fiksuoti tolimojo nuotolio priklausomybes.

 

C. Pozicinis kodavimas:

Norėdami išsaugoti informaciją apie žodžių tvarką, transformatoriai naudoja pozicinį kodavimą, kuris modifikuoja žodžių įterpimus, kad būtų atsižvelgta į jų poziciją sakinyje.

 

D. Kodavimo-dekodavimo architektūra:

Daugelis transformatorių susideda iš kodavimo įrenginio, kuris apdoroja įvestį, kad sukurtų prasmingą vaizdą, ir dekodavimo įrenginio, kuris naudoja tą vaizdą, kad sugeneruotų išvestį, pvz., vertimą ar santrauką.

 

E. Generavimo procesas:

Tokioms užduotims kaip teksto generavimas modelis numato kitą žodį sekoje, ima pavyzdžius iš tikimybių skirstinio ir prideda jį prie teksto, kad sukurtų naują prognozę.

 

Kodėl jie yra galingi?

 

Kontekstinis supratimas:

 

Transformatoriai išmoksta suprasti duomenų kontekstą ir reikšmę stebėdami, kaip tolimi elementai yra susiję vienas su kitu.

 

Ilgalaikės priklausomybės:

Jie įveikia RNN, kuriems buvo sunku išlaikyti kontekstą ilgose sekose, apribojimus, efektyviai užfiksuodami ilgalaikes priklausomybes duomenyse.

 

LLM pagrindas:

Transformatoriai yra pagrindinė architektūra, kuria grindžiami dideli kalbos modeliai (LLM), tokie kaip GPT ir BERT, kurie sukėlė revoliuciją natūralios kalbos apdorojime.

 

Taikymas

 

Teksto generavimas: nuoseklaus ir kontekstualaus teksto, pvz., istorijų, esė ir kodo, kūrimas.

 

Mašininis vertimas: teksto vertimas iš vienos kalbos į kitą dideliu tikslumu.

 

Atsakymas į klausimus: informatyvių atsakymų į klausimus pateikimas remiantis tam tikru kontekstu.

 

Pokalbių robotai ir dirbtinis intelektas: dalyvavimas žmogiškuose pokalbiuose ir ankstesnių dialogo posūkių įsiminimas.

 

Kitos sritys: Be teksto, transformatoriai taikomi tokiose srityse kaip kompiuterinė rega ir bioinformatika, siekiant suprasti sudėtingas struktūras, tokias kaip baltymų lankstymas.

 

3. Die ultimativen Grenzen der Künstlichen Intelligenz. Frankfurter Allgemeine Zeitung; Frankfurtas. 2025 m. liepos 28 d.: 18. Von Ralf Otte

Komentarų nėra: