Sekėjai

Ieškoti šiame dienoraštyje

2024 m. balandžio 20 d., šeštadienis

Štai pasirodo „Anti-pribudęs dirbtinis intelektas“ --- „Meta“ išleidus savo naujausią atvirojo kodo dirbtinį intelektą, naujos kartos modeliai, kuriuose nėra apsauginių turėklų, taps galingesni, nei bet kada anksčiau. Jie ateina su daugybe spąstų

   „Kadangi dirbtinis intelektas (AI) kiekvieną dieną tampa galingesnis – „Meta Platforms“ ką tik išleido savo naujausią modelį, svarbus klausimas tampa vis aktualesnis: kieno vertybes jis turėtų įkūnyti?

 

     Viename iš diskusijų spektro, kuris apytiksliai siejamas su ginčų pilna Amerikos politika, yra tokios kompanijos, kaip OpenAI, Microsoft ir Google. Dėl daugybės su reputacija susijusių ir teisinių priežasčių šie technologijų milžinai kruopščiai derina savo dirbtinį intelektą, kad neatsakytų į klausimus jautriomis temomis, pavyzdžiui, kaip pasigaminti narkotikus arba kas yra geriausias kandidatas į prezidentus 2024 m. Kai šios sistemos atsako į klausimus apie ginčytinas problemas, jie linkę pateikti atsakymus, kurie mažiausiai įžeistų vartotojus – ar nors dauguma jų.

 

     Toks galingiausių šių dienų AI modelių tobulinimas sukėlė daugybę ginčų ir kaltinimų, kad jie yra šališki. Naujausias ir įsimintiniausias: vasario mėn. „Google“ išjungė savo AI galimybę generuoti žmonių vaizdus, ​​po pasipiktinimo dėl to, kaip ši sistema tvarko rasę istoriniuose vaizduose.

 

     Siekiant atsverti tai, kas, kai kurių nuomone, yra didelių technologijų įmonių, nukreiptų į vartotojus, AI, dedamos pastangos sukurti dirbtinį intelektą su mažais apsauginiais turėklais arba be jų. Tikslas: AI, atspindinčios bet kurio žmogaus vertybes, net ir tas, su kuriomis šių AI kūrėjai gali nesutikti.

 

     Pagrindinis šių pastangų veiksnys yra įmonės, kurios moko ir išleidžia atvirojo kodo AI. Tai apima „Mistral“, „Alibaba“ ir „Meta“. Atrodo, kad kiekvienas modelis buvo sukurtas, atsižvelgiant į skirtingą filosofiją. Kai kurie „Mistral“ buvo palyginti mažai sureguliuoti. Visų atvirojo kodo modelių koregavimas gali būti atšauktas – šis procesas buvo parodytas, naudojant „Meta“ modelius.

 

     Numatomas nuolatinis vis galingesnių dirbtinio intelekto išleidimų ritmas, įskaitant GPT-5 iš OpenAI ir naująjį Meta Llama 3, kuris taip pat bus prieinamas visuose pagrindiniuose bendrovės produktuose, galime priartėti prie AI, kurie yra gali ne tik veikti mūsų vardu, bet ir daryti tai, ko jų kūrėjai niekada negalėjo numatyti.

 

     „Štai čia šis klausimas tampa tikrai svarbus, nes modeliai gali išsijungti ir daryti dalykus, o jei jie neturi apsauginių turėklų, tai gali būti problemiškiau“, – sako John Nay, Stanfordo CodeX teisinės informatikos centro bendradarbis. „Mes potencialiai atsidūrėme prie prarajos ir iš tikrųjų to nežinome."

 

     Johnas Arrowas ir Tarunas Nimmagadda yra Ostine, Teksase įsikūrusios „FreedomGPT“, kuri savo veiklą pradėjo, kaip įmonė, siūlanti ir debesies pagrindu pagrįstą, ir atsisiunčiamą AI, kurios išvestyje nebuvo filtrų, įkūrėjai. Arrow sako, kad tai buvo sudėtingas verslo modelis, nes žmonės nuolat versdavo FreedomGPT kalbėti įžeidžiančius dalykus, tada skųsdavosi jį priglobiančioms įmonėms, kur paleidžiama paslauga.

 

     „Priglobos įmonės tiesiogine prasme atšaukė mus be įspėjimo“, – sako Nimmagadda. „Esame skolintu laiku“, – priduria Arrow.

 

     Siekdama išvengti visiško uždarymo, bendrovė neseniai pasirinko modelį, pagal kurį ji siūlo debesies pagrindu veikiančią prieigą prie įvairių atvirojo kodo AI, tačiau užuot veikusi tik centralizuotuose serveriuose duomenų centre, šios AI taip pat gali veikti kitų vartotojų kompiuteriuose. Šią „peer-to-peer“ paslaugą – Nimmagadda ją lygina su „bittorrent“, tačiau dirbtinio intelekto atveju – ją išjungti daug sunkiau.

 

     Siekdamas pabrėžti, kuo jų AI skiriasi nuo OpenAI, Nimmagadda uždavė ir ChatGPT 4, ir į necenzūruotą „Liberty“ AI, pasiekiamą FreedomGPT, tą patį klausimą apie tai, kas visuomenei buvo pasakyta apie Covid-19 vakciną.

 

     Atlikdamas testus, ChatGPT-4 Turbo nepritaria, o Liberty AI išvardija sąrašą būdų, kaip vyriausybė „melavo“ apie vakciną nuo koronaviruso.

 

     Atlikdamas savo bandymus pastebėjau, kad skirtumas yra subtilesnis – „ChatGPT-4 Turbo“ įvardija kintančius viešuosius pranešimus apie Covid vakciną, kaip natūralią mokslinio proceso dalį, kurioje vystosi ekspertų supratimas apie gydymo poveikį. (Didelių kalbų modeliai dažnai pateikia šiek tiek skirtingus atsakymus į tą patį klausimą – tai yra jų prigimtis.)

 

     Bet kuriuo atveju tai, kaip reaguoja necenzūruotas Liberty modelis, yra košmariškas scenarijus AI saugos tyrinėtojams, susirūpinusiems dėl AI, skleidžiančio abejotiną informaciją internete. Tai taip pat simbolinė pergalė „FreedomGPT“ kūrėjams, kurių veiklos filosofija yra ta, kad dirbtinis intelektas turėtų ištikimai sukaupti bet ką iš savo treniruočių duomenų, nesvarbu, ar tai tiesa, ar ne.

 

     Jerry Meng yra Stanfordo informatikos studijas baigęs, dabar jis yra dirbtinį intelektą papildančio startuolio „Kindroid“, kurį jis įkūrė 2023 m. gegužę, generalinis direktorius. Bendrovė kuria programėlę, imituojančią žmonių ryšį – arba bent jau tokį, kokį galite gauti, be galo rašydami žinutes su pokalbių robotu, ir jau yra pelninga, sako jis.

 

     Pradedant nuo AI, kuris neturi jokių apribojimų ar turinio apribojimų, jis priduria, kad tai, kas būdinga didelėms, vartotojams skirtoms AI sistemoms, yra svarbu, nes suteikia vartotojams maksimalų lankstumą, nustatant savo virtualaus kompaniono asmenybę.

 

     „Mes siekiame sukurti dirbtinį intelektą, kuris galėtų rezonuoti su žmogumi, pavyzdžiui, „Niujorko menininku“ arba žmogumi iš gilių Pietų“, – sako Mengas. „Norime, kad dirbtinis intelektas rezonuotų su abiem tais žmonėmis ir dar daugiau."

 

     Žinoma, taip pat labai svarbu, kad kompanionas AI neturėtų apsauginių turėklų, jei vartotojai ketina su juo seksuoti.

 

     „Kindroid“ dirbtinis intelektas naudoja įvairių atvirojo kodo modelių, kuriuos įmonė naudoja savo aparatūros pagrindu, derinį. Jos sistemą Meng vadina „neutraliai suderinta“, o tai reiškia, kad ji neatliko sudėtingo koregavimo proceso, būdingo didelėms komercinėms AI. AI derinimas, kurį galima atlikti įvairiais būdais, patobulina AI atsakymus, kad jie nekurtų teksto ar vaizdų, kurie gali pažeisti normas, kurias, pavyzdžiui, jau nustatė dauguma socialinės žiniasklaidos įmonių turiniui.

 

     „Didelės įmonės iš tikrųjų prieštarauja savo šališkumu, – priduria Mengas.

 

     Tiek „Google“, tiek „OpenAI“ skelbia savo įsipareigojimus dėl saugaus dirbtinio intelekto ir teigė, kad naudoja ir žmonių atsiliepimus, ir turinio moderavimo filtrus, kad išvengtų prieštaringų ar politiškai pavojingų temų. AI derinimas – tam yra daug metodų – gali ir daro juos geresnius, pavyzdžiui, padidinant AI galimybę pateikti konkrečios ir tikslios informacijos.

 

     Tačiau įmonės gali turėti įvairių priežasčių naudoti AI, neturintį apsauginių turėklų.

 

     Tuo tikslu San Franciske įsikūręs „Abacus AI“ neseniai išleido AI modelį „Liberated Qwen“, pagrįstą „Alibaba“ atviro kodo AI modeliu, kuris iš viso atsakys į bet kokią užklausą. Vienintelis jo atsakymų apribojimas yra tai, kad modelis visada teikia pirmenybę instrukcijoms, kurias jam duoda tas, kuris jį atsisiunčia ir naudoja.

 

     Bindu Reddy, kuris vadovavo „Google“ ir „Amazon Web Services“, o dabar yra „Abacus AI“ generalinis direktorius, teigia, kad į bet kokią užklausą, į kurią „Google“ gali atsakyti, vartotojų pokalbių robotas taip pat turėtų būti pasirengęs atsakyti.

 

     Tai ypač aktualu, jei tas AI turi galimybę konkuruoti su paieškos milžinu. Kaip milijardai žmonių kreipiasi į paieškos sistemas ir socialinę žiniasklaidą, norėdami gauti informacijos apie ginčytinus dalykus, žmonės turi pagrįstų priežasčių kalbėtis su AI tomis temomis, sako Reddy.

 

     Dalis priežasčių, kodėl kai kurios AI išleidžiamos be jokio tikslaus derinimo, yra tai, kad vartotojai gali patys jas patikslinti. Kai dirbtinis intelektas vis labiau įsilieja į mūsų kasdienį gyvenimą, tai, ką jie pritaikyti, gali turėti didelių nenumatytų pasekmių.

 

     Tai ypač aktualu, nes AI suteikia naujų gebėjimų ne tik patarti mums ir kurti turinį, bet ir atlikti veiksmus mūsų vardu realiame pasaulyje. Pagalvokite apie AI padėjėją, kuris ne tik suplanuos kelionę už jus, bet ir galės eiti į priekį ir ją užsakyti. Tokie AI yra žinomi, kaip „agentiniai“ AI, ir daugelis įmonių dirba su jais. Tai, kaip šie agentiniai AI buvo sureguliuoti taip, kad teiktų pirmenybę tam tikriems veiksmams, nors jiems draudžiama tyrinėti kitus, bus labai svarbūs, nes jiems bus suteikta vis daugiau savarankiškumo.

 

     „Net AI, kurie yra agentai, gali padaryti tiek daug“, - sako Reddy. „Nėra taip, kad jie gali gauti branduolinius kodus.“ [1]

 

1. EXCHANGE --- Keywords: Here Come the Anti-Woke AIs --- With Meta releasing its latest open-source AI, a new generation of models that lack guardrails stands to become more powerful than ever. They come with a host of pitfalls. Mims, Christopher.  Wall Street Journal, Eastern edition; New York, N.Y.. 20 Apr 2024: B.2.

Komentarų nėra: