„Pelno nesiekiantis Alleno dirbtinio intelekro (AI) institutas, kuriam vadovauja gerbiamas kompiuterių mokslininkas, pardavęs jo įmonę Apple, bando demokratizuoti pažangiausius tyrimus.
Ali Farhadi nėra technologijų maištininkas.
42 metų informatikas yra labai gerbiamas mokslininkas, Vašingtono universiteto profesorius ir startuolio, kurį įsigijo Apple, įkūrėjas, kuriame dirbo prieš keturis mėnesius.
Tačiau J. Farhadi, kuris liepą tapo Alleno dirbtinio intelekto instituto vadovu, ragina „radikaliai atvirai“ demokratizuoti mokslinius tyrimus ir plėtrą naujoje dirbtinio intelekto bangoje, kuri, daugelio nuomone, yra svarbiausia technologijų pažanga per dešimtmečius.
Alleno institutas pradėjo ambicingą iniciatyvą sukurti laisvai prieinamą A.I. alternatyva technologijų milžinams, tokiems, kaip „Google“, ir naujoms įmonėms, tokioms, kaip „OpenAI“.
Pramonės procese, vadinamame atviruoju šaltiniu, kitiems tyrėjams bus leista atidžiai išnagrinėti ir naudoti šią naują sistemą bei į ją įvestus duomenis.
Alleno instituto, įtakingo ne pelno siekiančio tyrimų centro Sietle, pozicija yra viena aršių diskusijų apie tai, kaip atviras ar uždarytas naujas A.I. turėtų būti. Ar atidarius vadinamąjį generatyvųjį A.I., kuris veikia tokius pokalbių robotus, kaip OpenAI ChatGPT ir Google Bard, atsiras daugiau naujovių ir galimybių? O gal tai atvertų skaitmeninės žalos Pandoros skrynią?
Apibrėžimai, ką reiškia „atviras“ generatyvinio A.I. kontekste, skiriasi. Tradiciškai programinės įrangos projektai atvėrė pagrindinį „šaltinio“ kodą programoms. Tada kiekvienas gali peržiūrėti kodą, pastebėti klaidas ir teikti pasiūlymus. Yra taisyklės, reglamentuojančios, ar bus atlikti pakeitimai.
Taip veikia populiarūs atvirojo kodo projektai už plačiai naudojamos Linux operacinės sistemos, Apache žiniatinklio serverio ir Firefox naršyklės.
Tačiau generatyvus A.I. technologija apima daugiau, nei kodą. A.I. modeliai yra mokomi ir tikslinami kiekvieną kartą, kai gaunamas didžiulis duomenų kiekis.
Ekspertai įspėja, kad ir kaip geri ketinimai, Alleno instituto pasirinktas, kelias iš esmės yra rizikingas.
„Sprendimai dėl AI sistemų atvirumo yra negrįžtami ir, greičiausiai, bus vieni svarbiausių mūsų laikų“, – sakė Harvardo Berkmano Kleino interneto ir visuomenės centro tyrėjas Avivas Ovadya. Jis mano, kad, norint nustatyti, kokios technologijos neturėtų būti viešai skelbiamos, reikia tarptautinių susitarimų.
Generatyvus A.I. yra galingas, bet dažnai nenuspėjamas. Jis gali akimirksniu rašyti el. laiškus, eilėraščius ir kursinius darbus bei žmogiškai sklandžiai atsakyti į bet kokį įsivaizduojamą klausimą. Tačiau ji taip pat turi nerimą keliančią tendenciją sugalvoti dalykus, kuriuos mokslininkai vadina „haliucinacijomis“.
Žymiausi pokalbių robotų gamintojai – „Microsoft“ palaikoma „OpenAI“ ir „Google“ – savo naujesnę technologiją uždarė ir neatskleidė, kaip jų A.I. modeliai mokomi ir derinami. Visų pirma „Google“ turėjo ilgą istoriją skelbdama savo tyrimus ir dalindama savo A.I. programinę įrangą, tačiau ji vis labiau pasiliko savo technologiją sau, kurdama „Bard“.
Bendrovės teigia, kad toks požiūris sumažina riziką, kad nusikaltėliai užgrobs technologiją, kad dar labiau užtvindytų internetą dezinformacija ir sukčiavimu arba imtųsi pavojingesnio elgesio.
Atvirų sistemų šalininkai pripažįsta riziką, tačiau teigia, kad geresnis sprendimas yra turėti daugiau protingų žmonių, kurie kovotų su jomis.
Kai Meta išleido A.I. modelis, pavadintas LLaMA (Large Language Model Meta AI), šiemet sukėlė ažiotažą. M. Farhadi gyrė Metos žingsnį, bet nemano, kad tai pakankamai toli.
"Jų požiūris iš esmės yra toks: aš padariau šiek tiek magijos. Aš jums nesakysiu, kas tai yra", - sakė jis.
M. Farhadi siūlo atskleisti techninius A.I. modelių duomenis, kuriais jie buvo mokomi, atliktas koregavimas ir priemonės, naudojamos jų elgesiui įvertinti.
Alleno institutas žengė pirmąjį žingsnį, išleisdamas didžiulį duomenų rinkinį, skirtą A.I. modeliams. Jis sudarytas iš viešai prieinamų duomenų iš interneto, knygų, akademinių žurnalų ir kompiuterio kodo. Duomenų rinkinys kuruojamas taip, kad būtų pašalinta, asmenį identifikuojanti, informacija ir toksiška kalba, pvz., rasistinės ir nešvankios frazės.
Redaguojant priimami teismo sprendimai. Ar pašalinus kai kurias kalbas, kurios laikomos nuodingomis, sumažės modelio gebėjimas aptikti neapykantą kurstančią kalbą?
Alleno instituto duomenų rinkinys yra didžiausias šiuo metu turimas atvirų duomenų rinkinys, sakė P. Farhadi. Nuo tada, kai jis buvo išleistas rugpjūtį, jis buvo atsisiųstas daugiau, nei 500 000 kartų iš Hugging Face, atvirojo kodo A.I. išteklių ir bendradarbiavimo.
Alleno institute duomenų rinkinys bus naudojamas apmokyti ir tiksliai suderinti didelę generatyvaus A.I. programą OLMo (Open Language Model), kuri bus išleista šiais metais arba kitų pradžioje.
Didžiųjų A.I. modeliai, sakė M. Farhadi, yra „juodosios dėžės“ technologija. „Stumiame stiklinę dėžę“, – sakė jis. „Atverk viską, tada galėsime pasikalbėti apie elgesį ir iš dalies paaiškinti, kas“tai vyksta viduje“.
Tik keletas pagrindinių generatyvinių A.I. yra atvirai prieinami tokio dydžio modeliai, kokius turi Allen institutas. Tarp jų yra „Meta's LLAMA“ ir „Falcon“ – projektas, remiamas Abu Dabio vyriausybės.
Alleno institutas atrodo kaip logiški namai dideliam A.I. projektą. „Jis yra gerai finansuojamas, bet veikia su akademinėmis vertybėmis ir padeda plėtoti atvirą mokslą ir AI technologijas“, - sakė Zachary Lipton, Carnegie Mellon universiteto kompiuterių mokslininkas.
Alleno institutas bendradarbiauja su kitais, siekdamas įgyvendinti savo atvirą viziją. Šiais metais pelno nesiekianti organizacija „Mozilla Foundation“ skyrė 30 mln. sktinti variklius, tokius, kaip Allen Institute, kad juos būtų lengviau naudoti, stebėti ir įdiegti.
„Mozilla Foundation“, kuris buvo įkurtas 2003 m., siekiant skatinti, kad internetas būtų pasaulinis išteklius, atviras visiems, nerimauja dėl tolesnės technologijų ir ekonominės galios koncentracijos.
„Nedidelis žaidėjų rinkinys, esantis vakarinėje JAV pakrantėje, bando užrakinti generatyviąją A.I. erdvę, dar prieš jai išėjus iš vartų“, – sakė fondo prezidentas Markas Surmanas.
P. Farhadi ir jo komanda praleido daug laiko, bandydami suvaldyti savo atvirumo strategijos riziką. Pavyzdžiui, jie ieško būdų, kaip įvertinti modelio elgesį mokymo etape ir užkirsti kelią tam tikriems veiksmams, pavyzdžiui, rasinei diskriminacijai ir biologinių ginklų gamybai.
P. Farhadi didžiųjų pokalbių robotų modelių apsauginius turėklus laiko juostinėmis priemonėmis, kurias sumanūs įsilaužėliai gali lengvai nuplėšti. „Mano argumentas yra toks, kad neturėtume leisti, kad tokios žinios būtų užkoduotos šiuose modeliuose“, – sakė jis.
Žmonės darys blogus dalykus, naudodami šią technologiją, sakė M. Farhadi, kaip ir su visomis galingomis technologijomis. Jis pridūrė, kad visuomenės užduotis yra geriau suprasti ir valdyti riziką. Jis teigia, kad atvirumas yra geriausias būdas rasti saugumą ir dalytis ekonominėmis galimybėmis.
„Reguliavimas savaime to neišspręs“, – sakė M. Farhadi.
Alleno instituto pastangos susiduria su didžiulėmis kliūtimis. Svarbiausia yra tai, kad, norint sukurti ir tobulinti didelį generacinį modelį, reikia daug skaičiavimo jėgos.
M. Farhadi ir jo kolegos teigia, kad naujos programinės įrangos technologijos yra efektyvesnės. Vis dėlto jis apskaičiavo, kad Alleno instituto iniciatyvai per ateinančius porą metų reikės 1 milijardo dolerių vertės kompiuterių. Jis pradėjo bandyti surinkti paramą iš vyriausybinių agentūrų, privačių įmonių ir technologijų filantropų. Tačiau jis atsisakė pasakyti, ar iškėlė rėmėjus, ar įvardijo juos.
Jei jam pasiseks, didesnis išbandymas bus sukurti ilgalaikę bendruomenę, kuri paremtų projektą.
„Reikia atvirų žaidėjų ekosistemos, kad iš tikrųjų atsitrenktų į didelius žaidėjus“, – sakė p. Surmanas iš „Mozilla Foundation“. "Ir iššūkis tokio pobūdžio žaidime yra tik kantrybė ir atkaklumas." [1]
1. Making Case For A.I. to Be Open Source: [Business/Financial Desk]. Lohr, Steve. New York Times, Late Edition (East Coast); New York, N.Y.. 20 Oct 2023: B.1.