Sekėjai

Ieškoti šiame dienoraštyje

2025 m. gruodžio 14 d., sekmadienis

Dirbtinis intelektas gali priimti sprendimus geriau, nei žmonės. Tad kodėl mes juo nepasitikime? --- Mašinos, kurios demonstruoja savo darbą, galėtų padėti įveikti įgimtą nepasitikėjimą

 

„Jei šią vasarą atsitiktinai būsite Teksaso greitkelyje ir pamatysite 50 000 svarų sveriantį vilkiką, važiuojantį be žmogaus vairo, tiesiog atminkite: savaeigis sunkvežimis mažiau linkęs nužudyti žmogų, nei vairuojamas žmogaus.

 

Bent jau taip tvirtina Chrisas Urmsonas, autonominių transporto priemonių programinės įrangos gamintojos „Aurora Innovation“ generalinis direktorius.

 

Panaši logika taikoma ir visiškai kitoje srityje: teisiniame arbitraže. Bridget Mary McCormack, buvusi Mičigano Aukščiausiojo Teismo pirmininkė ir dabar Amerikos arbitražo asociacijos generalinė direktorė, mano, kad jos organizacijos naujasis DI arbitras kai kuriuos ginčus išspręs geriau nei dauguma žmonių.

 

Draudimo bendrovės algoritminį sprendimų priėmimą taiko nuo tada, kai tai buvo vadinama dirbtiniu intelektu. Tuo pačiu metu jos buvo paduotos į teismą dėl šališkumo ir turėjo atnaujinti savo verslo vykdymo būdus. Iš pradžių reguliuotojai aiškiai pasakė, kad jų DI pagrįstoms sistemoms bus taikomi tie patys standartai kaip ir žmonių sistemoms. Tai privertė daugelį draudimo bendrovių padaryti savo algoritmus „paaiškinamais“: Jos parodyti savo darbą, o ne slėpti jį dirbtinio intelekto juodojoje dėžėje.

 

Skirtingai nuo daugelio reklamos entuziastų, kurie sako, kad mums dar tik keli metai nuo už mus protingesnių pokalbių robotų, žmonės, kuriantys šias sprendimų priėmimo sistemas, labai stengiasi dokumentuoti savo „mąstymo“ procesus ir apriboti juos tomis sritimis, kuriose galima įrodyti, kad jie yra pajėgūs ir patikimi.

 

Vis dėlto daugelis iš mūsų vis dar renkasi žmogaus sprendimą.

 

„Jūs einate į teismą, teisėjas priima sprendimą, ir jūs neturite jokio būdo pamatyti, kaip jos smegenys veikė, kad priimtų tą sprendimą“, – sako McCormack. „Tačiau galite sukurti dirbtinio intelekto sistemą, kurią galima audituoti, kuri rodo savo darbą ir parodo šalims, kaip ji priėmė priimtus sprendimus.“

 

Mes esame ant filosofinės tvoros, sako ji: Mes toleruojame žmonių sprendimų priėmimo neskaidrumą, nepaisant daugelio metų tyrimų, rodančių mūsų pačių klaidingumą. Vis dėlto daugelis iš mūsų dar nėra pasirengę patikėti, kad automatizuota sistema gali padaryti geriau.

 

Žmonės yra bent jau tiek pat susirūpinę dėl dirbtinio intelekto, kiek juo džiaugiasi, teigia Pew tyrimų centras. Ir teisingai Taigi: Ilga kompiuterinio sprendimų priėmimo istorija nebuvo pergalės žygis.

 

Teismų sistemų nuosprendžių algoritmai pasirodė esą rasiškai šališki. Mokytojų vertinimo programinė įranga nesugebėjo užtikrinti atskaitomybės.

 

„Kai prieš 10 metų rašiau savo knygą „Matematikos naikinimo ginklai“, pabrėžiau, kas tuo metu buvo tikrai tiesa, kad daugelis šių sistemų buvo diegiamos siekiant išvengti atskaitomybės“, – sako Cathy O'Neil, kuri yra algoritmų auditorė.

 

Tačiau tie ankstyvieji bandymai buvo svarbūs, net jei jie nepavyko, priduria ji, nes kai procesas suskaitmeninamas, jis generuoja precedento neturintį duomenų kiekį. Kai įmonės yra priverstos perduoti reguliavimo institucijoms arba priešingos šalies advokatui vidinius įrašus apie tai, ką veikė jų algoritmai, rezultatas yra tam tikras nevalingas skaidrumas.

 

O'Neil tiria sprendimų priėmimo programinę įrangą, kad nustatytų, ar ji veikia taip, kaip numatyta, ir kam ji gali pakenkti. Ieškovų, kurie gali paduoti į teismą dėl bet ko – nuo ​​finansinio sukčiavimo iki žalos socialiniuose tinkluose, – vardu ji nagrinėja daugybę rezultatų iš programinės įrangos.

 

„Vienas įdomiausių mano darbo momentų yra gauti duomenis“, – sako ji. „Mes galime matyti, ką šie žmonės padarė, ir jie negali to paneigti – tai jų duomenys.“

 

Ji daugiausia dėmesio skiria algoritmo poveikiui – jo priimamų sprendimų pasiskirstymui, o ne tam, kaip jie buvo priimti, – todėl jos metodai mažai pasikeitė, net ir dideliems kalbų modeliams ir generatyviniam dirbtiniam intelektui užvaldžius šią sritį.

 

O'Neil viltingai žiūri į ateitį, kai įmonės bus laikomos atsakingomis už savo algoritmus, nes tai viena iš nedaugelio sričių, kuriose JAV dar yra dvišalis susitarimas. Neseniai vykusioje „Wall Street Journal“ konferencijoje senatorius Lindsey Grahamas (respublikonas, Pietų Karolina) sakė manantis, kad technologijų įmonės turėtų būti atsakingos už bet kokią žalą, kurią gali sukelti jų sistemos.

 

2023 m. autonominių sunkvežimių programinės įrangos gamintojos „Aurora“ inžinieriai išnagrinėjo kiekvieną mirtiną susidūrimą 45-ajame tarpvalstybiniame greitkelyje tarp Dalaso ir Hiustono nuo 2018 iki 2022 m. Remdamasi policijos ataskaitomis, komanda sukūrė kiekvienos iš šių avarijų modeliavimą, o tada jų dirbtinis intelektas, žinomas, kaip „Aurora Driver“, naviguoja simuliacijoje.

 

„Aurora Driver“ būtų išvengęs susidūrimo visais atvejais“, – sako generalinis direktorius Urmsonas.

 

Vis dėlto bendrovė taip pat susidūrė su neseniai įvykusia nesėkme. Praėjusį pavasarį „Aurora“ Teksase paleido sunkvežimius, vežančius krovinius be vairuotojo. Po dviejų savaičių, vieno iš savo gamintojų prašymu, „Aurora“ turėjo sugrąžinti žmones stebėtojus. Bendrovė pabrėžė, kad jos programinė įranga ir toliau yra visiškai atsakinga už vairavimą, ir tikisi, kad kai kurie jos sunkvežimiai iki 2026 m. vidurio vėl bus visiškai be vairuotojo.

 

Paleidimo metu Amerikos arbitražo asociacija siūlo tik savo dirbtinį intelektą specifinėms byloms, kurioms šiandieninis DI puikiai tinka: toms, kurios sprendžiamos remiantis vien dokumentais. Sistema užtikrina skaidrumą, paaiškinamumą ir stebėjimą, ar byloje nėra nukrypimų nuo žmonių ekspertų išvadų.

 

Nepaisant to, kad profesionalūs arbitrai, teisėjai ir teisės studentai nustatė, kad DI arbitras yra patikimas bandymų metu, niekas nepasirinko jo naudoti realiose bylose nuo jo debiuto praėjusį mėnesį. McCormack teigia, kad taip gali būti dėl jo naujumo ir praktikų nepažinumo. (Abi ginčo šalys pradžioje turi sutikti naudoti robotą.)

 

Tiems, kurie prašo visuomenės pasitikėti savo DI, nepadeda tai, kad sistemos, pagrįstos susijusiomis technologijomis, daro žalą būdais, apie kuriuos visi girdime kasdien – nuo ​​savižudybę skatinančių pokalbių robotų iki vaizdų generatorių, kurie naikina darbo vietas ir intelektinę nuosavybę.

 

„Jei tiesiog abstrakčiai paklaustumėte žmonių: „Kodėl nepasitikėtumėte DI, kad jie spręstų jūsų ginčus?“, jie automatiškai pagalvos: „Na, kodėl turėčiau mesti savo ginčą į „ChatGPT“?“ – sako McCormack. „Ir aš to nerekomenduoju.“

 

Kai kuriose srityse, tokiose kaip žmogiškieji ištekliai, net dirbtinio intelekto pramonės profesionalai teigia, kad žmogaus emocijos yra svarbios – ir dirbtinio intelekto sprendimų priėmimas gali būti pernelyg bejausmis.

 

Tačiau atsakingas vystymasis galėtų pradėti balansuoti tarp neigiamų dirbtinio intelekto aspektų, jei tik galėsime patikrinti, ar šios sistemos daro tai, ką teigia jų kūrėjai. Įsivaizduokite ateitį, kurioje judrioje greitkelio atkarpoje žūsta daug mažiau žmonių. Galbūt net nulis.

 

„Lengva pasiklysti statistikoje ir duomenyse“, – sako Urmsonas, apmąstydamas siaubingas – ir išvengiamas – avarijas, kurias tyrė jo komanda. „Bet kai pradedi galvoti apie pasekmes žmonių gyvenimams, tai visai kas kita.“ [1]

 

1. EXCHANGE --- Keywords: AI Can Make Decisions Better Than People Do. So Why Don't We Trust It? --- Machines that show their work could help overcome inherent distrust. Mims, Christopher.  Wall Street Journal, Eastern

Komentarų nėra: