Sekėjai

Ieškoti šiame dienoraštyje

2026 m. kovo 21 d., šeštadienis

Dirbtinio intelekto reguliavimo ekonomika


„Svarbiausią mūsų gyvenimo technologiją reguliuoja žmonės, kurie negali susitarti, kas tai yra. Kelios valstijos ir Europos Sąjunga priėmė išsamias dirbtinio intelekto taisykles. Ilinojus draudžia naudoti dirbtinį intelektą priimant sprendimus dėl diskriminacinių rezultatų – tai pagrįstas tikslas – tačiau dirbtinis intelektas apibrėžiamas taip plačiai, kad gali būti įtraukta beveik bet kuri rekomendacijų sistema, įskaitant statistinius metodus, kurie egzistuoja jau šimtmečius. Niujorko RAISE įstatymas reikalauja, kad „pažangių“ dirbtinio intelekto sistemų kūrėjai praneštų apie saugos incidentus per 72 valandas. ES Dirbtinio intelekto įstatymas už pažeidimus numato baudas iki 7 % pasaulinių pajamų. Reguliavimo architektūra yra plati, suskaidyta ir iš esmės nenuosekli. Tačiau didžiausia žala gali būti ne tai, ko šios sistemos nesugeba užkirsti kelio. Gali būti tai, ką jos sukelia.

 

Dirbu su įmonėmis, kurios atsisakė įdarbinimo algoritmų, kurie davė daugiau meritokratinių rezultatų nei vien tik žmogaus sprendimas – ne todėl, kad algoritmai buvo ydingi, o todėl, kad teisinis susidūrimas nebuvo vertas to. Reglamentas, skirtas sumažinti diskriminaciją, praktiškai ją didina.

 

Sunkiausia reguliavimo dalis yra ne nuspręsti, ko nori. Tai išsiaiškinti. kaip ją gauti. Pagrindinis iššūkis yra asimetrinė informacija. Reguliavimo institucija – federalinė agentūra, valstijos įstatymų leidėjas ar generalinis prokuroras – nori tam tikro elgesio iš dirbtinio intelekto kūrėjo, policijos departamento ar ligoninės. Tačiau reguliavimo institucija dažnai negali stebėti agento tikrųjų išlaidų, pagrindinių motyvų ar kasdienio elgesio. Ir agentas, tai žinodamas, elgiasi strategiškai.

 

Davidas Baronas ir Rogeris Myersonas šią problemą nagrinėjo 1982 m. straipsnyje, kurį skaičiau studijuodamas magistrantūroje ir kuris amžiams pakeitė mano požiūrį į reguliavimą. Jie klausė: kaip kurti taisykles žmonėms, kurie žino daugiau nei jūs? Atsakymas, kurį dauguma įstatymų leidėjų pasirenka, yra didesnė stebėsena. Griežtesnis auditas. Samdyti daugiau inspektorių. Ponai Baronas ir Myersonas parodė, kad ši intuicija yra visiškai klaidinga.

 

Užuot reikalavę informacijos (kurią agentai gali suklastoti), turėtumėte pasiūlyti reguliavimo galimybių meniu. Kiekviena iš jų yra sukurta taip, kad įmonės – brangios ar mažos, saugios ar rizikingos – suprastų, kad jų pačių interesais yra pasirinkti joms skirtą variantą. Gudrybė yra teisingą atskleidimą paversti racionaliu pasirinkimu ir klaidingą pateikimą. nepelninga.

 

Kiekviena rizikinga įmonė turi paskatą teigti, kad yra saugi. Gerai suplanuotas meniu pašalina šią paskatą. „Saugus“ kelias numato griežtą atsakomybę už bet kokią žalą, kuri yra pigi tikrai saugiai įmonei, bet pražūtingai brangi rizikingai įmonei. Rizikinga įmonė racionaliai pati pasirenka priežiūros kelią.

 

Panagrinėkime Ilinojaus įstatymą. Įmonė naudoja gyvenimo aprašymo atrankos algoritmą. Pagal naująjį įstatymą ji privalo išsiųsti kandidatams pranešimą: „Savo įdarbinimo procese naudojame dirbtinį intelektą“. Reguliavimo institucija nieko nesužino. Kandidatas negauna jokios reikšmingos apsaugos. Algoritmas gali diskriminuoti arba ne. Reglamentas nieko nedaro, kad tai išsiaiškintų, ir nesukuria jokios paskatos rizikingai sistemai atskleisti save.

 

Dabar apsvarstykime ekonominį požiūrį su meniu, skirtu paskatinti įmones savarankiškai identifikuoti save. A variantas – visiškas skaidrumas atestuotam auditoriui, švelnesni atitikties reikalavimai ir jokių baudų, nebent žala būtų dokumentuota. B variantas – skaidrumo nereikalaujama, bet griežta atsakomybė už bet kokią dokumentuotą diskriminaciją, o baudos pritaikytos prie faktinių socialinių išlaidų. Skirtumas yra sąmoningas: A variantas keičia tikrinimą į palengvėjimą; B variantas keičia neskaidrumą į viešumą.

 

A Rizikinga įmonė, apsimetanti saugia, pagal A variantą susiduria su pražūtinga atsakomybe, kai auditorius suras tai, ką slepia. Ji pati pasirenka B variantą, prisiimdama atsakomybę mainais už neskaidrumą. Saugi įmonė pasirenka A variantą ir sąžiningai užsitarnauja lengvesnę naštą. Joks šiuo metu galiojantis dirbtinio intelekto įstatymas nesukuria jokių šių paskatų. Jie sukuria popierizmą.

 

Beje, vienas šio meniu trūkumas yra tas, kad jis geriausiai veikia įsitvirtinusioms įmonėms, kurios žino, ką sukūrė. Naujesni rinkos dalyviai vis dar gali mokytis savo sistemų. Išsamesniam reguliavimo mechanizmui reikėtų laikino kelio – sumažintos atsakomybės mainais už privalomą stebėseną ir skaidrumą. Baronas ir Myersonas rašė apie monopolistus, o ne apie startuolius. Jų logikos išplėtimas į dinamiškas rinkas yra kita šio tyrimo sritis.

 

Problema dar labiau išryškėja, kai agento veiksmai, o ne tik jo tipas, yra nestebimi. Mano policijos tyrimas iliustruoja tai. Teisingumo departamentas, negalėdamas stebėti pareigūno tipo ar pastangų, parašo taisyklę, sukeliančią neigiamas pasekmes – tyrimą – dėl tam tikro skundų modelio. Tačiau blogas policininkas lengvoje situacijoje gali pateikti identišką statistiką kaip ir geras policininkas - tai sudėtingas klausimas. Ekonomistė Tanaya Devi ir aš 2020 m. atliktame tyrime nustatėme, kad federaliniai tyrimai lėmė policijos pastangų žlugimą. Pareigūnų inicijuotų kontaktų su civiliais Čikagoje per vieną mėnesį sumažėjo 89 %. Pareigūnai racionaliai sumažino pastangas, kad sumažintų riziką. dvejus metus buvo suskaičiuota beveik 1000 papildomų žmogžudysčių, daugiausia juodaodžių gyvybių. Ne dėl blogų veikėjų. Dėl blogo dizaino.

 

Ekonomistai Jean-Jacques Laffont ir Jean Tirole išplėtė Baron-Myerson sistemą, kad išspręstų būtent šį paslėpto tipo ir paslėptų veiksmų derinį. Jų įžvalga: rezultatais pagrįstos bausmės veikia tik tada, kai jos yra įtrauktos į meniu, kuris pirmiausia skatina sąžiningą savęs pasirinkimą. Sukurkite tinkamą meniu, o tada leiskite atsakomybei atlikti darbą. Tas pats valstybės įgaliojimų kratinys, kuriuo siekiama padidinti dirbtinio intelekto saugumą, garantuoja, kad apie diegiamas sistemas sužinome mažiau, o ne daugiau.

 

Reguliavimo institucijos visada yra tamsoje, bent šiek tiek. Klausimas, ar jos kuria sistemas, kurios atskleidžia informaciją, ar ją slepia giliau. Jei norime reguliuoti sudėtingas, greitai besikeičiančias sritis, tokias kaip dirbtinis intelektas, arba net tokias nuolatines sritis kaip policijos veikla, turime pradėti nuo nuolankumo. Mes nežinome, kas vyksta juodosios dėžės viduje. Tačiau turėdami tinkamus įrankius, galime priversti ją atsiverti tiek, kad suderintume paskatas, atgrasytume nuo žalos ir apdovanotume už tiesą. Didžiausias pavojus reglamentavimo srityje yra ne blogi veikėjai. Tai arogantiškas elgesys, kai politika kuriama taip, tarsi turėtume tobulą informaciją, kai jos neturime.

 

 

---

 

 

Ponas Fryeris, žurnalo bendradarbis, yra Harvardo universiteto ekonomikos profesorius, „Equal Opportunity Ventures“ įkūrėjas ir vyresnysis Manheteno instituto mokslinis bendradarbis.“ [1]

 

1. The Economics of Regulating AI. Fryer, Roland.  Wall Street Journal, Eastern edition; New York, N.Y.. 21 Mar 2026: A13. 

Komentarų nėra: