„Su „ES AI įstatymu“ Europos Sąjunga įsipareigojo sukurti vieną iš pirmųjų pasaulyje dirbtinio intelekto (AI) teisės aktų visuomenės labui. Bet ar tai išvis būtina? Mes tikime: Ne. Šis pranešimas yra atsakymas Svenja Hahn publikacijai, pasirodžiusiai 2023 m. spalio 10 d.
Planuojamas ES dirbtinio intelekto įstatymas įgauna vis daugiau formų, ir daugelis jį rengiančių žmonių skelbia jį, kaip gerą naujieną: jis turėtų būti pasaulinis modelis, leidžiantis sumažinti galimą dirbtinio intelekto riziką ir su juo susijusius pavojus, jo naudojimas pavojams užkerta kelią. Juo siekiama sustiprinti vartotojų pasitikėjimą dirbtiniu intelektu. Kartu tai neturėtų reikšti per didelio reguliavimo, kuris galėtų trukdyti naujovėms Europoje ir neleisti dar labiau įtempti ir taip sunkiai besiverčiančias vidutines įmones. Kol kas tai abejotina.
Mūsų nuomone, ypač abejotinas yra iš pirmo žvilgsnio banalus svarstymas, kas iš tikrųjų turėtų būti reguliuojama horizontaliai aplink AI, kas dar nėra reglamentuota. Kur yra reguliavimo spraga, kurią ES tiki įžvelgianti, kurios bijo ir todėl įnirtingai nori ją panaikinti? Mes nematome šios spragos. Vietoj to matome, kad daugelyje pramonės šakų jau yra daug vertikalių nacionalinės ir tarptautinės kilmės reikalavimų, kurių gamintojai turi laikytis. Čia ypač gerai žinoma Mašinų direktyva ir Medicinos prietaisų reglamentas.
Jei būtų reguliavimo spragų, pirmiausia būtų svarbu jas aiškiai nustatyti, o tik tada konkrečiai jas pašalinti. Tačiau tai turėtų būti reguliuojama apskritai, t. y. vertikaliai susieta su konkrečia programa ar domenu, o ne sutelkiant dėmesį į konkrečią technologiją, pvz., AI. Mes matome AI, kaip vieną iš daugelio įrankių, kuriuos galima naudoti, kuriant ar naudojant produktą. Tai priemonė tikslui pasiekti, o ne blogio šaknis. Tai galite pamatyti, pavyzdžiui, masiniame stebėjime viešose erdvėse: AI gali būti naudojamas tam, o AI įstatymas gali tai uždrausti. Bet masinį sekimą galima įgyvendinti ir be AI – todėl svarbiau būtų reguliuoti ar uždrausti patį masinį sekimą, o ne įrankį, kurį būtų galima naudoti, bet nebūtina.
Mūsų nuomone, problemų kelia ir AI taikomųjų programų klasifikavimas, kaip numatyta AI įstatyme. Jis daugiausia dėmesio skiria draudžiamoms ir vadinamosioms didelės rizikos programoms. Su šia užduotimi matome daug atvirų klausimų. Tai prasideda tuo, kad net ir dalyvaujantiems ES veikėjams nėra aišku, kas iš tikrųjų yra AI. Yra trys skirtingi AI apibrėžimai, atsižvelgiant į tai, ar tyrinėjate Tarybą, Komisiją ar Parlamentą. Kai kuriais atvejais šie apibrėžimai siekia tiek toli, kad, griežtai tariant, visa statistinė programinė įranga būtų reguliuojama kaip AI programos, o tai yra techninė nesąmonė.
Panašios abejonės kyla, kai žiūrima į tai, kas turėtų būti laikoma didelės rizikos programa. Čia matome daug nereikšmingų dalykų. Pavyzdžiui, kas galėjo pagalvoti, kad dirbtinio intelekto palaikomas automatizuotas priėmimas ir testavimas universitetuose bus laikomas didele rizika? Dėl šios kartais abejotinos užduoties keliami reikalavimai, kurie šiuo metu yra per aukšti ir neleidžia naudoti dirbtinio intelekto daugelyje vietų, kur jis galėtų padėti ir dirbti efektyviau. Rizikos klasifikavimas taip pat nėra trivialus konkretiems naudojimo atvejams. Taikomasis AI tyrimo metu nustatė, kad 40 procentų ištirtų naudojimo atvejų klasifikacija buvo neaiški.
Klasifikacija taip pat kelia klausimą, kas iš tikrųjų turėtų sertifikuoti visas dirbtiniu intelektu pagrįstas „didelės rizikos sistemas“. Mums atrodo, kad, kaip ir dėl medicinos prietaisų reglamento, ES sukuria sau nereikalingą ir brangiai kainuojančią kliūtį, trukdančią diegti naujoves. Ir čia grįžtame prie pradžioje paminėtų vidutinio verslo: didelės įmonės gal dar susitvarkys su tokiomis išlaidomis, bet mažosios bus atgrasytos arba iš karto atsiliks. Bendrojo duomenų apsaugos reglamento (BDAR) įvedimas yra įspėjamasis to pavyzdys.
Akivaizdu, kad visomis šiomis pastangomis Kinija ir Amerika tikrai paliks mus technologiškai užnugaryje (jei to dar nepadarė).
Paskutinis techninis punktas apie ponios Hahn straipsnį: ji paaiškino, kad AI įstatymas turėtų reglamentuoti programas, o ne pačią technologiją, nes pastaroji keičiasi per greitai. Tiesą sakant, šiuo metu tiek daug AI vyksta, kad AI įstatymas visą laiką atrodys pasenęs. Tai galima pastebėti taip, kaip „bendrosios paskirties AI“ – terminas, kurį sukūrė ES, bet kuriuo iš tikrųjų siekiama kiekvieno mašininio mokymosi proceso pagrindo – ir į pagrindinius modelius reikėtų atsižvelgti, atsižvelgiant į technologijas. Jau nekalbant apie tai, kad generacinės AI technologijos egzistuoja dešimtmečius ir tik dabar buvo plačiai naudojamos.
Taigi, ką reikia padaryti, kad būtų prasmingai išspręstos AI trukdančios ES galimybės? Čia turime atlikti aiškias užduotis: pirma, finansinė ir intelektinė parama, antra, švietimas ir, trečia, geriausios praktikos sklaida. Konkrečiai kalbant, tai reiškia: kurkime atmosferą, kuri į temą žiūrėtų, kaip į galimybę, o ne, kaip į priešą. Tai taip pat apima konkurencingą finansinę paramą dirbtinio intelekto technologijoms. Čia reikėtų prisiminti „Didžiųjų Europos AI modelių“ (LEAM:AI) iniciatyvą, kuria siekiama sukurti didelius, daug duomenų turinčius AI modelius. Idėja gera – pinigų jai nėra.
Jei pažvelgtumėte į ES subsidijas daugeliui kitų pramonės šakų, šie prioritetai turėtų suteikti peno apmąstymams. Geresnis švietimas visomis su skaitmenizacija susijusiomis temomis yra būtinas, kad mūsų visuomenė galėtų pasisakyti, dalyvauti veikloje ir padėti ją formuoti, nes dirbtinis intelektas yra čia ir mes visi turėsime išmokti su tuo susitvarkyti ir dirbti. Ir galiausiai – sektinų modelių kūrimas: AI nėra panacėja. Padarius apčiuopiamą dalyką, ką AI gali ir ko negali daryti konkrečiose pramonės šakose, sukuriamos tikroviškos idėjos ir veiksmų erdvė. Padėkime visi formuoti technologiją, o ne be reikalo blokuokime ją su daug biurokratijos.“ [1]
1. AI Act: KI fördern statt kaputtregulieren. Frankfurter Allgemeine Zeitung (online)Frankfurter Allgemeine Zeitung GmbH. Oct 25, 2023. Von Patrick Glauner und Marco Huber
Komentarų nėra:
Rašyti komentarą