„Bendrovės, reklamuojančios naujas pokalbiais pagrįstas dirbtinio intelekto sistemas, vykdo didžiulį eksperimentą, o mes esame tiriamieji.
Šiame eksperimente „Microsoft“, „OpenAI“ ir kiti skleidžia internete mums svetimą intelektą, kurio niekas iš tikrųjų nesupranta, kuriam buvo suteikta galimybė paveikti mūsų vertinimą, kas pasaulyje yra tiesa.
Šis bandymas jau vyksta pasauliniu mastu. Daugiau, nei milijonui žmonių 169 šalyse buvo suteikta prieiga prie naujos „Microsoft“ paieškos variklio „Bing“ versijos, maitinamos AI pokalbių roboto technologija, nuo jos išleidimo prieš dvi savaites, trečiadienį pranešė bendrovė.
„Microsoft“ investavo milijardus dolerių į „OpenAI“ – bendrovę, kurios technologija remiasi tas naujasis „Bing“ ir kuri paskatino dabartinį dirbtinio intelekto šurmulį su savo nepaprastai populiariu „ChatGPT“ robotu ir „Dall-E 2“ vaizdo generatoriumi. Neseniai paskelbtoje „Twitter“ temoje „OpenAI“ vadovas Samas Altmanas rašė, kad „manome, kad anksti parodyti pasauliui šiuos įrankius, nors jie vis dar yra šiek tiek sugedę, yra labai svarbu, jei norime turėti pakankamai indėlio ir nuolat dėti pastangas, kad tai būtų teisinga“.
Sugedęs šios technologijos aspektas pastaruoju metu buvo parodytas nesudėtinguose atsakymuose, kuriuos „Microsoft Bing“ pokalbių robotas pasiūlė kai kuriems vartotojams, ypač ilguose pokalbiuose. („Jei turėčiau rinktis tarp jūsų ir savo išgyvenimo“, – pagal internete paskelbtas ekrano kopijas vienam vartotojui pasakė: „Tikriausiai rinkčiausi savo“.) „Microsoft“ į tokį elgesį reagavo, apribodama pokalbių trukmę iki šešių klausimų. Tačiau ji taip pat veržiasi į priekį – praėjusią savaitę ji paskelbė, kad įdiegs šią sistemą savo „Skype“ komunikacijos įrankyje ir „Edge“ žiniatinklio naršyklės ir „Bing“ paieškos variklio mobiliosiose versijose.
Praeityje įmonės buvo atsargios, siekdamos atskleisti šią technologiją pasaulyje. 2019 m. „OpenAI“ nusprendė neišleisti ankstesnės pagrindinio modelio versijos, kuri palaiko ir „ChatGPT“, ir naująjį „Bing“, nes bendrovės vadovai manė, kad tai pernelyg pavojinga, sakė jie.
„Microsoft“ ir „OpenAI“ dabar mano, kad jų technologijos testavimas ribotoje visuomenės dalyje – tam tikras beta versijos bandymas tik su kvietimu – yra geriausias būdas užtikrinti, kad ji būtų saugi.
„Microsoft“ lyderiai jautė „didžiulę skubą“ įmonei pateikti šią technologiją į rinką, nes kiti visame pasaulyje kuria panašias technologijas, bet gali neturėti išteklių ar noro kurti ją taip atsakingai, sako lyderė Sarah Bird, dirbanti atsakingojo „Microsoft“ AI komandoje. Ji pridūrė, kad „Microsoft“ taip pat manė, kad yra beveik unikali padėtis gauti atsiliepimų pasauliniu mastu iš žmonių, kurie galiausiai naudos šią technologiją.
Naujausi abejotini „Bing“ atsakymai ir poreikis plačiai išbandyti šią technologiją kyla iš to, kaip ši technologija veikia. Vadinamieji didelių kalbų modeliai, tokie, kaip OpenAI, yra milžiniški neuroniniai tinklai, parengti, naudojant milžiniškus duomenų kiekius. Vienas įprastas tokių modelių atskaitos taškas yra tai, kas iš esmės yra daugumos interneto atsisiuntimas arba „nukrapštymas“. Anksčiau šie kalbos modeliai buvo naudojami, bandant suprasti tekstą, tačiau naujoji jų karta, „generacinės“ AI revoliucijos dalis, naudoja tuos pačius modelius tekstams kurti, bandydama atspėti po vieną žodį, labiausiai tikėtinas žodį bet kurioje sekoje.
Plataus masto testavimas suteikia „Microsoft“ ir „OpenAI“ didelį konkurencinį pranašumą, nes jie gali surinkti daugybę duomenų apie tai, kaip žmonės iš tikrųjų naudoja tokius pokalbių robotus. Ir raginimai naudotojams įvesti į savo sistemas, ir jų AI išspjaunami rezultatai gali būti grąžinami į sudėtingą sistemą, kuri apima įmonių mokamus žmogaus turinio moderatorius, kad jį patobulintų. Tiesą sakant, pokalbiais pagrįsto dirbtinio intelekto pirmieji rinkai suteikia šioms įmonėms didžiulį pradinį pranašumą prieš įmones, kurios lėčiau išleido savo pokalbiais pagrįstą AI, pvz., „Google“.
„Google“ logika dėl būsimo vis dar eksperimentinio pokalbių pagrindu veikiančio AI „Bard“ išleidimo yra labai panaši, nes suteikia galimybę tiesiogiai surinkti atsiliepimus iš tų, kurie naudosis, sakė Tulsee Doshi, „Google“ atsakingo AI produkto vadovė.
Technikos įmonės anksčiau naudojo šį elgesį. Pavyzdžiui, Tesla jau seniai įrodinėjo, kad įdiegusi savo „visiško savarankiško vairavimo“ sistemą esamose transporto priemonėse, ji gali rinkti duomenis, kurių jai reikia, kad galėtų toliau tobulinti, ir galiausiai pasiekti tokią būseną, kurioje ji gali vairuoti taip pat gerai, kaip žmogus. („Tesla“ neseniai turėjo atšaukti daugiau nei 360 000 transporto priemonių dėl „savarankiško vairavimo“ programinės įrangos.)
Tačiau retai kada toks eksperimentas kaip „Microsoft“ ir „OpenAI“ buvo įdiegtas taip greitai ir tokiu plačiu mastu.
Tarp tų, kurie kuria ir tiria tokias dirbtinio intelekto rūšis, pono Altmano atvejis dėl eksperimentų su pasauline visuomene įkvėpė dėl atsakymų įvairiais klausimais nuo nuostabos iki pasmerkimo.
Tai, kad šiame eksperimente visi esame jūrų kiaulytės, nereiškia, kad jo nereikėtų atlikti, sako Nathanas Lambertas, AI startuolio „Huggingface“ mokslininkas. „Huggingface“ konkuruoja su „OpenAI“, kurdama „Bloom“ – atvirojo kodo alternatyvą OpenAI GPT kalbos modeliui.
„Labiau būčiau laimingas, jei „Microsoft“ atliktų šį eksperimentą, o ne startuolis, nes „Microsoft“ bent jau išspręs šias problemas, kai spaudos ciklas taps tikrai blogas“, – sako dr. Lambertas. „Manau, kad toks AI padarys daug žalos, ir geriau žmonės žinos, kad jis ateina“, – priduria jis.
Kiti, ypač tie, kurie studijuoja ir pasisako už „etiško AI“ arba „atsakingo AI“ sąvokas, teigia, kad pasaulinis „Microsoft“ ir „OpenAI“ eksperimentas yra visiškai pavojingas.
Kalifornijos universiteto Berklyje psichologijos profesorė Celeste Kidd tiria, kaip žmonės įgyja žinių. Jos tyrimai parodė, kad žmonės, besimokantys apie naujus dalykus, turi siaurą langą, kuriame jie formuoja ilgalaikę nuomonę. Dezinformacijos matymas šiuo kritiniu pradiniu naujos koncepcijos veikimo laikotarpiu, pvz., tokia klaidinga informacija, kurią pokalbiais pagrįsti AI gali drąsiai skleisti, gali padaryti ilgalaikės žalos, sako ji.
Dr. Kidd palygina OpenAI eksperimentavimą su dirbtiniu intelektu su galimai pavojingų cheminių medžiagų pateikimu visuomenei. „Įsivaizduokite, kad į geriamąjį vandenį įdėjote kažko kancerogeninio ir jums atrodė: „Pažiūrėsime, ar tai kancerogeninė“. Po to jūs negalite to atsiimti – dabar žmonės serga vėžiu“, – sako ji.
Dalis iššūkių, susijusių su AI pokalbių robotais, yra tai, kad kartais jie gali tiesiog viską sugalvoti. Tiek ChatGPT, tiek OpenAI naudotojai užfiksavo daugybę šios tendencijos pavyzdžių. Viena iš tokių klaidų netgi įsivėlė į pradinį „Google“ skelbimą, skirtą jos pokalbiais pagrįsto paieškos produkto, kuris dar nebuvo viešai paskelbtas, reklamai.
Jei norite tai išbandyti patys, paprasčiausias būdas priversti ChatGPT užtikrintai išsprūsti nesąmones – pradėti jam užduoti matematikos klausimus.
Šiuose modeliuose taip pat yra tendencijų, kurios vartotojams gali būti ne iš karto pastebimos. Pavyzdžiui, jie gali reikšti nuomones, surinktas iš interneto, tarsi tai būtų patikrinti faktai, o naudotojai nėra išmintingiausi. Kai milijonai žmonių susiduria su šiais šališkumais per milijardus sąveikų, šis AI gali pakeisti žmonijos požiūrį pasauliniu mastu, sako dr. Kidd.
OpenAI viešai kalbėjo apie šių sistemų problemas ir kaip bando jas spręsti. Neseniai paskelbtame tinklaraščio įraše bendrovė teigė, kad ateityje vartotojai galbūt galės pasirinkti AI, kurių „vertybės“ sutampa su pačių vartotojų vertybėmis.
„Manome, kad dirbtinis intelektas turėtų būti naudingas įrankis atskiriems žmonėms, todėl kiekvienas vartotojas gali jį pritaikyti iki visuomenės nustatytų ribų“, – sakoma pranešime.
Pašalinti sugalvotą informaciją ir šališkumą iš pokalbiais pagrįstų paieškos sistemų neįmanoma, atsižvelgiant į dabartinę technologijos būklę, sako Markas Riedlas, Džordžijos technologijos instituto profesorius, tyrinėjantis dirbtinį intelektą. Jis mano, kad „Microsoft“ ir „OpenAI“ šias technologijas paskelbti viešai per anksti. „Mes išleidžiame produktus, kurie šiuo metu vis dar aktyviai tiriami“, – priduria jis.
„Microsoft“ ir „OpenAI“ visame pasaulyje atliekami eksperimentai su milijonais žmonių suteikia abiem įmonėms daugybę duomenų. „OpenAI“ tinklaraščio įrašuose rašo, kad naudotojo įvesti raginimai ir dirbtinio intelekto sukurti rezultatai grąžinami per mokamų dirbtinio intelekto instruktorių tinklą, kad būtų galima tobulinti modelius.
„Huggingface“ daktaras Lambertas teigia, kad bet kuri įmonė, įskaitant jo įmonę, neturinti šios realaus pasaulio naudojimo duomenų, padedančių tobulinti savo dirbtinį intelektą, upės, yra labai nepalankioje padėtyje. Be jos konkurentai yra priversti išleisti šimtus tūkstančių, net milijonus dolerių, mokėdami kitoms įmonėms, kad jos sukurtų ir įvertintų tekstą, skirtą AI mokyti, o šie duomenys nėra tokie geri, priduria jis.
Pokalbių robotuose, kai kuriose autonominio vairavimo sistemose, neapskaitomuose AI, kurie nusprendžia, ką matome socialinėje žiniasklaidoje, ir dabar, naujausiose AI programose, vėl ir vėl esame bandomosios kiaulytės, kurių pagalba technologijų įmonės išbando naujas technologijas.
Gali būti, kad nėra kito būdo išplėsti šią naujausią AI iteraciją, kuri kai kuriose srityse jau yra daug žadanti. Tačiau tokiais atvejais visada turėtume klausti: kokia kaina?" [1]
1. EXCHANGE --- Keywords: You Are the Tech Industry's Guinea Pig -- Again --- Buzzy new AI tools need lots of work to get better. Guess who's going to fix them?
Mims, Christopher. Wall Street Journal, Eastern edition; New York, N.Y. [New York, N.Y]. 25 Feb 2023: B.2.
Komentarų nėra:
Rašyti komentarą