Europos Sąjungos šalys ruošiasi priimti pirmąjį pasaulyje išsamų dirbtinį intelektą (AI) reglamentuojančių įstatymų rinkinį.
ES AI įstatyme nustatomos griežčiausios taisyklės rizikingiausiems AI modeliams ir siekiama užtikrinti, kad dirbtinio intelekto sistemos būtų saugios ir gerbtų pagrindines teises bei ES vertybes.
„Šis aktas yra nepaprastai svarbus, nes formuoja mūsų mąstymą apie AI reguliavimą ir sukuria precedentą“, – sako Rishi Bommasani, Kalifornijos Stanfordo universitete tyrinėjantis AI poveikį visuomenei.
Teisės aktai priimami, sparčiai tobulėjant AI. Tikimasi, kad šiais metais bus pristatytos naujos generuojančiųjų dirbtinio intelekto modelių versijos, tokios, kaip GPT, kuri palaiko ChatGPT, kurią sukūrė OpenAI San Franciske, Kalifornijoje, o esamos sistemos bus naudojamos sukčiavimui ir dezinformacijai skleisti. Kinija jau taiko įvairius įstatymus, kuriais vadovaudamasi komerciniame AI naudojime, o JAV reguliavimo kūrimas vyksta. Praėjusį spalį prezidentas Joe Bidenas pasirašė pirmąjį šalyje AI vykdomąjį įsakymą, reikalaujantį, kad federalinės agentūros imtųsi veiksmų, kad suvaldytų AI riziką.
Įstatymas įsigalios 2026 m.
Kai kurie mokslininkai palankiai įvertino šį aktą dėl jo potencialo skatinti atvirą mokslą, o kiti nerimauja, kad jis gali slopinti naujoves. Nature tiria, kaip įstatymas paveiks tyrimus.
Koks yra ES požiūris?
ES nusprendė reguliuoti dirbtinio intelekto modelius, atsižvelgdama į jų galimą riziką, taikydama griežtesnes taisykles rizikingesnėms programoms ir nubrėždama atskirus bendrosios paskirties AI modelių, pvz., GPT, reglamentus, kurių naudojimas plačiai skleidžiamas ir nenuspėjamas.
Įstatymas draudžia dirbtinio intelekto sistemas, keliančias „nepriimtiną riziką“, pavyzdžiui, tas, kurios naudoja biometrinius duomenis jautrioms savybėms, pvz., žmonių seksualinei orientacijai, nustatyti. Didelės rizikos programos, pvz., dirbtinio intelekto naudojimas, samdant ir vykdant teisės aktus, turi atitikti tam tikrus įsipareigojimus; Pavyzdžiui, kūrėjai turi parodyti, kad jų modeliai yra saugūs, skaidrūs ir paaiškinami naudotojams ir kad jie laikosi privatumo taisyklių ir nediskriminuoja. Jei naudojate mažesnės rizikos AI įrankius, kūrėjai vis tiek turės pranešti naudotojams, kai jie sąveikauja su AI sukurtu turiniu. Įstatymas taikomas, ES veikiantiems, modeliams, o bet kuriai įmonei, kuri pažeidžia taisykles, gresia bauda iki 7% jos metinio pasaulinio pelno.
„Manau, kad tai geras požiūris“, – sako Dirkas Hovy, informatikas iš Bocconi universiteto Milane, Italijoje. Jis sako, kad dirbtinis intelektas greitai tapo galingas ir visur paplitęs. „Absoliučiai prasminga sukurti sistemą, kuri padėtų jį naudoti ir plėtoti."
Kai kurie nemano, kad įstatymai yra pakankamai platūs, nes karinių ir nacionalinio saugumo tikslais taikomos išimtys, taip pat yra spragų dirbtinio intelekto naudojimui teisėsaugos ir migracijos srityse, sako Kilianas Viethas-Ditlmannas, AlgorithmWatch politologas. Tai Berlyne įsikūrusi ne pelno siekianti organizacija, tirianti automatizavimo poveikį visuomenei.
Kiek tai paveiks mokslininkus?
Teoriškai labai mažai. Praėjusiais metais Europos Parlamentas į įstatymo projektą įtraukė sąlygą, pagal kurią AI modeliams, sukurtiems tik moksliniams tyrimams, plėtrai ar prototipų kūrimui, būtų taikoma išimtis. ES daug dirbo siekdama užtikrinti, kad šis aktas nedarytų neigiamos įtakos tyrimams, sako Joanna Bryson, tyrinėjanti dirbtinį intelektą ir jo reguliavimą Hertie mokykloje Berlyne. „Jie tikrai nenori nutraukti naujovių, todėl būčiau nustebęs, jei tai bus problema."
Tačiau veikimas vis tiek gali turėti įtakos, nes mokslininkai galvoja apie skaidrumą, apie tai, kaip jie praneša apie savo modelius ir galimą šališkumą, sako Hovy. „Manau, kad tai išfiltruos ir skatins gerą praktiką“, – sako jis.
Robertas Kaczmarczykas, Miuncheno technikos universiteto (Vokietija) daktaras ir LAION (Large-scale Artificial Intelligence Open Network), ne pelno organizacijos, siekiančios demokratizuoti mašininį mokymąsi, vienas iš įkūrėjų, nerimauja, kad įstatymas gali trukdyti mažoms įmonėms, kurios vairuoja mokslinius tyrimus ir kurioms gali prireikti sukurti vidines struktūras, kad būtų laikomasi įstatymų. „Pritapti, kaip mažai įmonei, tikrai sunku“, – sako jis.
Ką tai reiškia galingiems modeliams, tokiems, kaip GPT?
Po karštų diskusijų politikos formuotojai nusprendė reguliuoti galingus bendrosios paskirties modelius, tokius, kaip generatyvieji modeliai, kurie kuria vaizdus, kodą ir vaizdo įrašą, savo dviejų lygių kategorijoje.
Pirmoji pakopa apima visus bendrosios paskirties modelius, išskyrus tuos, kurie naudojami tik moksliniams tyrimams arba skelbiami pagal atvirojo kodo licenciją. Jiems bus taikomi skaidrumo reikalavimai, įskaitant mokymo metodikos ir energijos suvartojimo detalizavimą, ir turi parodyti, kad jie laikosi autorių teisių įstatymų.
Antroji, daug griežtesnė, pakopa apims bendrosios paskirties modelius, kurie, kaip manoma, turi „didelio poveikio galimybes“, kurie kelia didesnę „sisteminę riziką“. Šiems modeliams bus taikomi „kai kurie iš gana reikšmingų įsipareigojimų“, – sako Bommasani, įskaitant griežtus saugos bandymus ir kibernetinio saugumo patikras. Kūrėjai turės atskleisti savo architektūros ir duomenų šaltinių detales.
ES „didelis“ iš tikrųjų yra pavojingas: bet koks modelis, kuris treniruotėms naudoja daugiau nei 1025 FLOP (kompiuterinių operacijų skaičių), turi didelį poveikį. Tokio skaičiavimo galios modelio mokymas kainuoja nuo 50 iki 100 milijonų JAV dolerių – taigi, tai yra aukšta kartelė, sako Bommasani. Jame turėtų būti užfiksuoti tokie modeliai, kaip GPT-4, dabartinis OpenAI modelis, ir gali būti įtrauktos būsimos Meta atvirojo kodo konkurento LLaMA iteracijos. Šios pakopos atvirojo kodo modeliams taikomas reguliavimas, nors tik moksliniams tyrimams skirtiems modeliams netaikomi.
Kai kurie mokslininkai prieštarauja AI modelių reguliavimui, o pirmenybę teikia tam, kaip jie naudojami. „Protingesnis ir pajėgesnis nereiškia daugiau žalos“, – sako Jenia Jitsev, dirbtinio intelekto tyrinėtoja iš Jülich superkompiuterių centro Vokietijoje ir kita LAION įkūrėja. Jitsev priduria, kad reguliavimas, remiantis bet kokiu pajėgumų matu, neturi mokslinio pagrindo. Jie naudoja analogiją apibrėždami, kaip pavojingą, visą chemiją, kuri naudoja tam tikrą žmogaus valandų skaičių. „Tai taip pat neproduktyvu, kaip tai“.
Ar šis aktas sustiprins atvirojo kodo AI?
ES politikos formuotojai ir atvirojo kodo šalininkai to tikisi. Šis aktas skatina dirbtinio intelekto informaciją padaryti prieinamą, atkartojamą ir skaidrią, o tai yra beveik, kaip „atvirojo kodo judėjimo manifesto skaitymas“, sako Hovy. Kai kurie modeliai yra atviresni, nei kiti, ir lieka neaišku, kaip bus interpretuojama akto kalba, sako Bommasani. Tačiau jis mano, kad įstatymų leidėjai ketina taikyti išimtį bendrosios paskirties šiems modeliams, tokiems, kaip LLaMA-2 ir startuolio „Mistral AI“ Paryžiuje.
Bommasani teigia, kad ES požiūris į atvirojo kodo AI skatinimą labai skiriasi nuo JAV strategijos. „ES samprotauja, kad atvirasis šaltinis bus gyvybiškai svarbus, siekiant, kad ES konkuruotų su JAV ir Kinija.
Kaip bus vykdomas aktas?
Europos Komisija sukurs dirbtinio intelekto biurą, kuris prižiūrės bendrosios paskirties modelius, konsultuojamas nepriklausomų ekspertų. Biuras kurs būdus, kaip įvertinti šių modelių galimybes ir stebėti susijusias rizikas. Tačiau net jei tokios įmonės, kaip OpenAI, laikosi taisyklių ir pateikia, pavyzdžiui, didžiulius duomenų rinkinius, Jitsev abejoja, ar viešoji įstaiga turės išteklių tinkamai išnagrinėti pateiktus dokumentus. „Labai svarbus reikalavimas būti skaidriam“, – sako jie. "Tačiau mažai buvo galvojama, kaip šios procedūros turi būti atliekamos." [1]
Žmonių pravardžiavimas bus griežtai baudžiamas (diskriminacija). Saugumo sumetimais bus leidžiama ir plačiai praktikuojama žmonių medžioklė su autonominiais dronais ir kitais robotais žudikais. ES pamažu grįžta į akmens amžių.
1. Nature 626, 938-939 (2024) Elizabeth Gibney
Komentarų nėra:
Rašyti komentarą