Sekėjai

Ieškoti šiame dienoraštyje

2024 m. liepos 24 d., trečiadienis

Naujuoju metodu siekiama išvengti kalbos modelių haliucinacijų

„Oksfordo universiteto mokslininkai sukūrė metodą, leidžiantį nuspėti ir užkirsti kelią haliucinacijoms dirbtinio intelekto modeliuose už ChatGPT ir Gemini. 

 

Ateityje modeliai generuos ir palygins kelis atsakymus, prieš pateikdami rezultatą.

 

Haliucinacijos yra gerai žinoma didelių kalbos modelių (LLM) problema, kai modeliai pateikia patikimai skambančią, bet klaidingą arba visiškai išgalvotą informaciją. Oksfordo universiteto mokslininkai sukūrė metodą, leidžiantį numatyti ir išvengti didelių kalbos modelių haliucinacijų. Tyrimas buvo paskelbtas žurnale Nature.

 

Dar gegužę „Google“ AI paieškos funkcija „AI apžvalga“ sulaukė kritikos dėl to, kad vartotojams pateikia absurdiškus ir sveikatai pavojingus atsakymus. Tai apėmė rekomendaciją naudoti klijus, kaip picos užpilą arba kasdien suvalgyti akmenį. "LLM gali suformuluoti tą patį dalyką įvairiais būdais. Taikant senus metodus, negalėtumėte atskirti, ar modelis nežinojo, ką pasakyti, ar nežinojo, kaip išreikšti save", - sako Sebastianas Farquharas, vienas iš knygos bendraautorių. studija. 

 

Naujasis metodas sutelktas į sugeneruotų atsakymų reikšmės neapibrėžtumo matavimą, o ne tik į neapibrėžtumą, pasirenkant žodžius.

 

Palyginkite skirtingus atsakymus į tą patį klausimą

 

Idėja yra tokia: jei kalbos modelis generuoja kelis skirtingus atsakymus į klausimą, atsakymus, kurie suformuluoti skirtingai, bet turi tą pačią reikšmę, tada modelis yra labai įsitikinęs atsakymu. Jei modelis pateikia daug skirtingų reikšmių atsakymų į tą pačią užklausą, modelis nėra tikras. Tai yra įspėjamasis ženklas, kad modelis gali pranešti apie kažką neteisingo ar nepagrįsto.

 

Tyrimas siūlo įvertinti tikimybes prasmės erdvėje ir tik tada pateikti galutinį atsakymą. Šis metodas leidžia kiekybiškai įvertinti atsakymo neapibrėžtumą ir taip nustatyti haliucinacijas, prieš joms atsirandant. Tokiu būdu vartotojai gali būti įspėti, jei modelio atsakymas gali būti neteisingas arba nepagrįstas. Mokant kalbos modelį, atsakymai, kurių reikšmės skiriasi, gali būti atmesti, siekiant pagerinti modelio tikslumą.

 

Tačiau šio metodo įgyvendinimas yra sudėtingas, nes kalbos modelis turi iš anksto sugeneruoti kelis galimus atsakymus į kiekvieną klausimą, kad būtų galima rasti galutinį rezultatą. Tyrimas rodo, kad palyginus dešimt, iš anksto sugeneruotų, atsakymų būtų galima pagerinti modelio veikimą. Tai reikalauja daug skaičiavimo, ypač ilgesnių atsakymų atveju. „Situacijose, kai patikimumas yra labai svarbus, semantinio neapibrėžtumo apskaičiavimas yra nedidelė kaina“, – sako tyrimo vadovas Yarinas Galas." [1]


1. Neue Methode soll Halluzinationen der Sprachmodelle vermeiden. Frankfurter Allgemeine Zeitung (online) Frankfurter Allgemeine Zeitung GmbH. Jun 20, 2024. Von Nina Müller

Komentarų nėra: