„Dirbtinis intelektas (AI) vystosi sparčiai ir turi didžiulį naujovių potencialą. Pateikiame kruopščiai kuruojamą dabartinių tyrimų apžvalgą.
Sparčiai vystantis AI taikymo srityse, dažnai ignoruojama, kad daug kas vyksta ir tyrimų lygmeniu. Čia padedami pamatai naujoms programoms. Todėl D:ECONOMY reguliariais intervalais pateiks kuruojamą dabartinių leidinių apžvalgą.
Šiandien, be kita ko, kalbama apie:
Kaip tikslus derinimas gali įveikti didelių modelių saugos kliūtis.
Kaip dideli kalbos modeliai (LLM) gali tapti efektyvesni.
Kaip AI naudojimas darbo vietoje konkrečiai veikia produktyvumą.
Kaip specializuotas LLM medicinos srityje padeda gydytojams atlikti diferencinę analizę.
Tikslus derinimas gali įveikti LLM saugumo kliūtis:
Tiek Metos Llama, tiek naujosios GPT 3.5 API iš Open AI daugeliui įmonių atveria galimybę sureguliuoti. Šiame dokumente aptariamos susijusios galimos saugumo rizikos, tiek modelių tiekėjams, tiek jų verslo klientams:
Autoriai pažymi, kad nors esamos saugos derinimo infrastruktūros gali apriboti kenkėjišką LLM elgesį išvados metu, jos neapima saugumo rizikos, kai tikslinimo privilegijos suteikiamos galutiniams vartotojams.
Tam reikia tik keleto nepalankiai sukurtų mokymo pavyzdžių: GPT-3.5 Turbo apsauginius turėklus galima įveikti patikslinus tik 10 tokių pavyzdžių, kurių kaina yra mažesnė nei 0,20 dolerio, naudojant Open AI API, o tai reiškia, kad modelį galima naudoti beveik visais kenksmingais būdais, ir jis reaguoja į nurodymus.
Svarbu tai, kad tyrimai taip pat rodo, kad net ir be piktų kėslų, paprastas patikslinimas, naudojant gerybinius ir dažnai naudojamus duomenų rinkinius gali netyčia pabloginti LLM saugumo padėtį, nors ir mažiau.
Pagrindinė įžvalga: net jei pradinis modelio saugos derinimas yra nepriekaištingas, jis nebūtinai išliks ir po patikslinimo.
Straipsnis: „Kokstyvus suderintų kalbų modelių derinimas kelia pavojų saugai, net jei vartotojai to neketina! (Išankstinis spausdinimas, PDF „ArXiV“)
AI poveikis produktyvumui:
Šis straipsnis yra šių metų rugsėjo mėn., bet, žinoma, vis dar aktualus. Tyrėjai naudoja daugiadisciplininius užduočių pavyzdžius, kad ištirtų, kaip LLM naudojimas veikia produktyvumą.
Iš 18 skirtingų užduočių, atrinktų, siekiant parodyti realius darbo elitinėje konsultacinėje įmonėje pavyzdžius, konsultantai, kurie naudojo ChatGPT-4, gerokai pranoko tuos, kurie jo nenaudojo. Konsultantai, naudojantys dirbtinį intelektą, vidutiniškai atliko 12,2 procento daugiau užduočių, 25,1 procento greičiau ir pasiekė 40 procentų kokybiškesnių rezultatų, nei konsultantai be AI.
Stebina: ChatGPT naudojimas gali apriboti tiriamųjų idėjų įvairovę, bet tuo pačiu padidinti idėjų kokybę. AI veikia, kaip įgūdžių lygintojas: konsultantai, kurie eksperimento pradžioje gavo prasčiausią įvertinimą, užfiksavo didžiausią našumo šuolį (43 proc.), kai jiems buvo leista naudoti AI.
Straipsnis: „Navigacija po dantytas technologines ribas: eksperimentiniai AI poveikio žinių darbuotojų produktyvumui ir kokybei įrodymai“ (išankstinis spausdinimas, galima atsisiųsti iš SSRN)
Tikslus derinimas:
Ar tikrai daug visko labai padeda? LLM tradiciškai derinami su dideliais duomenų rinkiniais. Tačiau naujausi tyrimai rodo, kad bendroms instrukcijoms sekti gali pakakti mažų, aukštos kokybės, duomenų rinkinių.
Šiame tyrime tiriama, ar nedidelis skirtingų koreguojančių pavyzdžių rinkinys gali pagerinti tiek tradicinių NLP etalonų, tiek atviro modelio vertinimo rezultatus.
Tyrimo rezultatas: 1k–6k instrukcijų koregavimo pavyzdžių poaibių pakanka, kad būtų pasiekti geri rezultatai, pirma: tradiciniuose NLP etalonuose ir, antra, modeliu pagrįsto vertinimo. Autoriai taip pat rodo, kad vadovėlio ir atvirų kokybės užtikrinimo koregavimo duomenų rinkinių derinimas optimizuoja abiejų vertinimo paradigmų našumą.
Straipsnis: „RIBA: mažiau yra daugiau instrukcijų derinimui įvairiose vertinimo paradigmose“ (išankstinis spausdinimas, PDF „ArXiv“)
LLM medicinoje:
Kaip LLM gali padėti gydytojams, atliekantiems diferencinę diagnozę. Šiame dokumente išbandomas LLM, sukurtas šiam tikslui:
LLM buvo įvertinta 302 sudėtingais realaus pasaulio medicinos atvejais. LLM remiami, gydytojai pasiekė žymiai didesnį top dešimtuko tikslumą (51,7 proc.), palyginti su gydytojais be LLM paramos (36,1 proc.). LLM taip pat pranoko GPT-4 70 bandymų atvejų pogrupyje.
Straipsnis: „Tikslios diferencinės diagnostikos su didelių kalbų modeliais link“ (Preprint, PDF „ArXiv“)
Daug greitesni LLM dėl labai smulkaus „ekspertų mišinio“:
„Ekspertų mišinys“ (angl. Mixture of Experts – MoE) – tai metodas, kai vietoj vieno didelio modelio naudojami keli mažesni specializuoti modeliai. Šio straipsnio autoriai iš ETH Ciuricho laikėsi šio požiūrio į kraštutinumą. Šiuo metu nėra veiksmingo įgyvendinimo, kuris išnaudotų visas šio metodo pagreitinimo galimybes.
Tačiau autoriai pateikia aukšto lygio procesoriaus kodą, kuris, jų teigimu, pasiekia 78 kartų pagreitį, palyginti su baziniu optimizuotu grįžtamojo ryšio diegimu, taip pat „PyTorch“ diegimą, kuris pasiekia 40 kartų pagreitį, palyginti su atitinkamu paketiniu persiuntimu.
Greičio priežastis: čia pateikti „Fast Feedforward Networks“ yra sukonstruoti taip, kad išvadoms daryti reikia tik eksponentiškai mažos jų neuronų dalies – darbe pateikto UltraFastBERT atveju tik 0,3 procento neuronų.
Mokslininkai skelbia mokymo kodą, lyginamosios analizės sąranką ir modelio svorius.
Todėl darbe teigiama, kad, naudojant tokiu būdu sukurtus LLM, galima labai padidinti efektyvumą ir sumažinti išlaidas.
Straipsnis: „Eksponentiškai greitesnis kalbų modeliavimas“ (išankstinis spausdinimas, PDF „ArXiV“)“ [1]
1. KI-Papers: Über Feintuning, Sicherheit und KI in der Medizin. Frankfurter Allgemeine Zeitung (online) Frankfurter Allgemeine Zeitung GmbH. Dec 12, 2023. Von Marcel Weiß
Komentarų nėra:
Rašyti komentarą