„Dario Amodei dalijasi savo utopinėmis – ir distopinėmis – prognozėmis apie artimiausią dirbtinio intelekto ateitį.
Ar dirbtinio intelekto valdovai yra žmonių rasės pusėje? Tai pagrindinis klausimas, kurį turėjau šios savaitės svečiui. Dario Amodei yra „Anthropic“, vienos sparčiausiai augančių dirbtinio intelekto bendrovių, generalinis direktorius. Jis yra šiek tiek utopiškas, kai kalbama apie galimą technologijos, kurią jis paleidžia pasauliui, naudą. Tačiau jis taip pat mato rimtus pavojus ir neišvengiamus sutrikimus.
Žemiau pateikiamas redaguotas „Įdomūs laikai“ epizodo transkriptas. Rekomenduojame jo klausytis originalia forma, kad pamatytumėte visą efektą. Tai galite padaryti naudodami aukščiau esantį grotuvą arba „NYTimes“ programėlėje, „Apple“, „Spotify“, „Amazon Music“, „YouTube“, „iHeartRadio“ arba bet kur, kur klausotės tinklalaidžių.
Ross Douthat: Dario Amodei, sveiki atvykę į „Įdomius laikus“.
Dario Amodei: Ačiū, kad pakvietėte, Ross.
Douthat: Taigi, jūs, galbūt neįprastai, technologijų generaliniam direktoriui, esate eseistas. Parašėte du ilgus, labai įdomius esė apie dirbtinio intelekto potencialą ir pavojų. Ir šiame pokalbyje kalbėsime apie pavojus, bet pamaniau, kad būtų gerai pradėti nuo pažado ir optimistinės vizijos – iš tiesų, sakyčiau, utopinės vizijos – kurią prieš porą metų išdėstėte esė pavadinimu „Meilės malonės mašinos“. Prie šio pavadinimo dar grįšime pabaigoje.
Tačiau manau, kad daugelis žmonių su dirbtinio intelekto naujienomis susiduria per antraštes, pranašaujančias kraujo praliejimą baltųjų apykaklių darbo vietose ir panašius dalykus. Kartais jūsų paties citatos skatina tokius dalykus.
Amodei: Kartais mano paties citatos. Taip.
Douthat: Ir manau, kad yra įprastas klausimas „Kam skirtas dirbtinis intelektas?“. kad žmonės turi.
Tad kodėl neatsakius į šį klausimą, pradedant nuo to: jei per ateinančius penkerius ar dešimt metų viskas klostysis nuostabiai, kam skirtas dirbtinis intelektas?
Amodei: Taip, trumpai papasakosiu, prieš pradėdama dirbtinio intelekto srityje, prieš pradėdama dirbti technologijų srityje, buvau biologė. Iš pradžių dirbau skaičiuojamosios neurologijos srityje, o vėliau Stanfordo medicinos mokykloje ieškojau baltymų biožymenų vėžiui, bandžiau pagerinti diagnostiką ir išgydyti vėžį.
Vienas iš pastebėjimų, kuriuos dažniausiai pastebėjau dirbdama šioje srityje, buvo neįtikėtinas jos sudėtingumas. Kiekvienas baltymas turi tam tikrą lygį kiekvienoje ląstelėje. Nepakanka matuoti lygį organizme, lygį kiekvienoje ląstelėje. Reikia matuoti lygį konkrečioje ląstelės dalyje ir kituose baltymuose, su kuriais jis sąveikauja arba sudaro kompleksus.
Ir aš turėjau tokį jausmą: Dieve, tai per sudėtinga žmonėms. Mes darome pažangą spręsdami visas šias biologijos ir medicinos problemas, bet darome pažangą gana lėtai.
Taigi, kas mane patraukė į šią sritį Dirbtinis intelektas buvo tokia mintis: ar galėtume greičiau pasiekti pažangos?
Žiūrėkite, mes jau seniai bandome taikyti dirbtinį intelektą ir mašininio mokymosi metodus biologijoje. Paprastai jie buvo skirti duomenų analizei. Tačiau, kadangi dirbtinis intelektas tampa labai galingas, manau, kad turėtume į tai pagalvoti kitaip. Turėtume galvoti apie dirbtinį intelektą kaip apie biologo darbą, atliekantį viską nuo pradžios iki pabaigos. Ir iš dalies tai apima eksperimentų siūlymą, naujų metodų kūrimą.
Turiu skyrių, kuriame sakau, kad didelę dalį biologijos pažangos lėmė santykinai nedidelis įžvalgų skaičius, leidžiantis mums išmatuoti, pasiekti ar įsikišti į labai mažus dalykus. Jei pažvelgsite į daugelį šių metodų, jie buvo išrasti labai atsitiktinai. „Crispr“, kuri yra viena iš šių genų redagavimo technologijų, buvo išrasta, nes kažkas nuėjo į susitikimą apie bakterijų imuninę sistemą ir susiejo tai su savo atliktu darbu genų terapijos srityje. Ir šis ryšys galėjo būti užmegztas prieš 30 metų.
Taigi mintis tokia: ar dirbtinis intelektas visa tai paspartintų? Ar tikrai galėtume išgydyti vėžį? Ar tikrai galėtume išgydyti Alzheimerio ligą? Ar tikrai galėtume išgydyti širdies ligas? Ir subtiliau, kai kuriuos psichologinius negalavimus, kuriuos patiria žmonės – depresiją, bipolinį sutrikimą – ar galėtume ką nors dėl jų padaryti? Tiek, kiek jie yra biologiškai pagrįsti, manau, kad bent iš dalies taip.
Taigi, aptarsiu šį argumentą: Na, kaip greitai viskas galėtų vystytis, jei turėtume tokius intelektus, kurie galėtų padaryti beveik viską?
Douthat: Noriu jus sustabdyti, nes vienas iš įdomių dalykų jūsų esė formuluotėje yra tai, kad šie intelektai nebūtinai turi būti tokio maksimalaus dieviško superintelekto, koks iškyla diskusijose apie dirbtinį intelektą. Jūs iš esmės sakote, jei galime pasiekti stiprų intelektą, atitinkantį maksimalų žmogaus našumą.
Amodei: Taip, maksimalų žmogaus našumą.
Douthat: O tada padauginti iš ko? Jūsų frazė yra „genijų šalis“.
Amodei: Šalis – jų turi 100 milijonų. Galbūt kiekvienas treniravosi šiek tiek kitaip arba bandė spręsti skirtingą problemą. Yra naudos diversifikuojant ir bandant dalykus šiek tiek kitaip, bet taip.
Douthat: Taigi, jums nereikia turėti tikrojo Mašinų Dievo. Jums tereikia turėti 100 milijonų genijų.
Amodei: Jums nereikia turėti tikrojo Mašinų Dievo. Ir iš tiesų, yra vietų, kur abejoju, ar Mašinų Dievas būtų daug efektyvesnis šiuose dalykuose nei 100 milijonų genijų.
Turiu tokią koncepciją, vadinamą mažėjančia intelekto grąža. Ekonomistai kalba apie ribinį žemės ir darbo našumą; mes niekada negalvojome apie ribinį intelekto našumą. Bet jei pažvelgsiu į kai kurias iš šių biologijos problemų, tam tikru lygmeniu jums tiesiog reikia bendrauti su pasauliu. Tam tikru lygmeniu jums tiesiog reikia išbandyti dalykus. Tam tikru lygmeniu jums tiesiog reikia laikytis įstatymų arba pakeisti įstatymus dėl vaistų gavimo per reguliavimo sistemą. Taigi yra ribotas greitis, kuriuo šie pokyčiai gali įvykti.
Dabar yra keletas sričių, pavyzdžiui, jei žaidžiate šachmatais ar go, kur intelekto ribos yra itin aukštos. Bet manau, kad realiame pasaulyje yra daug apribojimų. Galbūt galima peržengti genialumo lygį, bet kartais manau, kad visos šios diskusijos apie tai, „Ar galėtumėte panaudoti skaičiavimo mėnulį, kad sukurtumėte dirbtinio intelekto dievą?“, yra šiek tiek sensacingos ir ne į temą, net jei manau, kad tai bus didžiausias dalykas, kuris kada nors nutiko žmonijai.
Douthat: Taigi, kalbant konkrečiai, turime pasaulį, kuriame vėžys, kaip rimta grėsmė žmogaus gyvybei, nebebus. Širdies ligų, daugelio ligų, kurias patiriame ir kurios mus žudo, nebebus. Galimas gyvenimo pratęsimas ir po to. Taigi, tai yra sveikata. Tai gana teigiama vizija.
Pakalbėkime apie ekonomiką ir turtą. Kas nutiks per penkerių, dešimties metų dirbtinio intelekto kilimą į turtą?
Amodei: Taip. Taigi, vėlgi, palikime tai teigiamoje pusėje – pasieksime neigiamą pusę.
Mes jau dirbame su farmacijos įmonėmis. Mes jau dirbame su finansų pramonės įmonėmis. Mes jau dirbame su žmonėmis, kurie užsiima gamyba. Žinoma, manau, kad esame ypač žinomi dėl programavimo ir programinės įrangos inžinerijos. Taigi, grynas produktyvumas, gebėjimas kurti ir atlikti darbus – tai labai galinga.
Matome, kad mūsų įmonės pajamos kasmet auga 10 kartų, ir įtariame, kad platesnė pramonės šaka atrodo panašiai. Jei technologijos toliau tobulės, neprireiks dar 10 kartų, kol staiga pagalvosite: jei visoje pramonėje kasmet gauname 1 trilijoną dolerių pajamų, o JAV BVP yra 20 ar 30 trilijonų dolerių – tiksliai nepamenu – tai turi padidinti BVP augimą keliais procentais. Taigi, matau pasaulį, kuriame dirbtinis intelektas išsivysčiusio pasaulio BVP augimą padidina iki maždaug 10, 15 procentų. Penki, 10, 15 – turiu omenyje, kad nėra jokio mokslo, kaip apskaičiuoti šiuos skaičius. Tai visiškai beprecedentis dalykas. Tačiau tai galėtų padidinti skaičius, kurie neatitinka to, ką matėme anksčiau.
Vėlgi, manau, kad tai sukurs keistą pasaulį. Mes visi diskutuojame apie tai, kad „deficitas auga“. Jei BVP auga tiek, tai tiek pat ir mokesčių įplaukų, ir jūs subalansuosite biudžetą netyčia.
Vienas iš dalykų, apie kuriuos pastaruoju metu galvoju, yra tai, kad viena iš mūsų ekonominių ir politinių debatų prielaidų yra ta, kad augimą sunku pasiekti. Kad tai vienaragis, ir yra visokių būdų, kaip numušti auksinę žąsį.
Galėtume patekti į pasaulį, kuriame augimas yra labai lengvas, o paskirstymas yra sunkus, nes jis vyksta taip greitai, pyragas didinamas taip greitai.
Douthat: Taigi, prieš pradėdami spręsti sudėtingą problemą, dar vienas optimizmo nata politiniu klausimu.
Visa tai yra spekuliatyvu, bet manau, kad šiek tiek spekuliatyviau yra tai, kad bandote įrodyti, jog dirbtinis intelektas gali būti naudingas demokratijai ir laisvei visame pasaulyje. Kas nebūtinai intuityvu – daugelis žmonių sako, kad neįtikėtinai galingos technologijos autoritarinių lyderių rankose veda prie valdžios koncentracijos ir panašiai.
Amodei: Apie tai kalbu kitame rašinyje.
Douthat: Teisingai, bet trumpai, koks yra optimistinis argumentas, kodėl dirbtinis intelektas yra naudingas demokratijai?
Amodei: Taip, be abejo. Taigi, „Meilės malonės mašinos“. Aš tiesiog sakau: Svajokime!
Douthat: Svajokime! Teisingai.
Amodei: Pakalbėkime apie tai, kaip tai galėtų gerai pavykti. Nežinau, kiek tai tikėtina, bet turime suformuluoti svajonę. Pabandykime ją įgyvendinti.
Taigi, teigiama versija – pripažįstu, kad nežinau, ar technologija iš esmės skatina laisvę. Manau, kad ji iš esmės skatina ligų gydymą ir iš esmės skatina ekonomikos augimą. Tačiau, kaip ir jūs, nerimauju, kad ji gali iš esmės nepalanki laisvei.
Bet ką aš sakau, tai: ar galime priversti ją skatinti laisvę? Ar galime padėti Jungtinėms Valstijoms ir kitoms demokratinėms valstybėms išsiveržti į priekį šios technologijos srityje?
Jungtinių Valstijų technologinė ir karinė pažanga reiškia, kad turime didelę įtaką visame pasaulyje, o mūsų aljansai su kitomis demokratinėmis valstybėmis dar labiau sustiprina mūsų įtaką. Ir mes sugebėjome suformuoti pasaulį, kuris, mano manymu, yra geresnis nei tas, kuris būtų, jei jį formuotų Kinija ar kitos autoritarinės šalys.
Taigi, ar galime panaudoti savo DI lyderystę, kad formuotume laisvę visame pasaulyje? Žinoma, daug diskutuojama apie tai, kiek intervencionistiniai turėtume būti ir kaip turėtume panaudoti šią galią, bet aš dažnai nerimauju, kad šiandien, per socialinę žiniasklaidą, autoritarai mums kenkia.
Ar galime tam pasipriešinti? Ar galime laimėti informacinį karą? Ar galime užkirsti kelią autoritarams įsiveržti į tokias šalis kaip Taivanas, gindami jas DI galia?
Douthat: Su milžiniškais DI varomų dronų spiečiais.
Amodei: Su kuo turime būti atsargūs. Mes patys turime būti atsargūs, kaip juos kuriame. Turime ginti laisvę savo šalyje. Bet ar yra kokia nors vizija, kurioje mes iš naujo įsivaizduojame laisvę ir individualias teises DI amžiuje? Tam tikra prasme turime būti apsaugoti nuo DI ir kažkas turi laikyti mygtuką dronų spiečiui, dėl ko aš labai nerimauju, ir kad šiandien priežiūros nėra.
Taip pat pagalvokite apie šiandieninę teisingumo sistemą. Mes pažadame „lygų teisingumą visiems“, tiesa? Tačiau tiesa ta, kad pasaulyje yra skirtingų teisėjų, o teisinė sistema yra netobula. Nemanau, kad turėtume teisėjus pakeisti dirbtiniu intelektu, bet ar yra koks nors būdas, kuriuo dirbtinis intelektas galėtų padėti mums būti teisingesniems, padėti mums būti vienodesniems? Tai niekada anksčiau nebuvo įmanoma. Bet ar galime kažkaip panaudoti dirbtinį intelektą, kad sukurtume kažką neaiškaus, bet kartu pažadėtume, kad jis bus taikomas visiems vienodai?
Nežinau tiksliai, kaip tai turėtų būti padaryta, ir nemanau, kad turėtume, pavyzdžiui, pakeisti Aukščiausiąjį Teismą dirbtiniu intelektu. Tai ne mano vizija.
Douthat: Na, apie tai pakalbėsime.
Amodei: Bet tiesiog ši mintis: ar galime ištesėti lygių galimybių ir vienodo teisingumo pažadą, pasitelkdami dirbtinio intelekto ir žmonių derinį? Turi būti koks nors būdas tai padaryti. Taigi, tiesiog galvojame apie demokratijos iš naujo išradimą dirbtinio intelekto amžiui ir laisvės stiprinimą, o ne jos mažinimą.
Douthat: Gerai. Taigi, tai gerai. Tai labai teigiama vizija. Mes gyvename ilgiau, sveikiau. Esame turtingesni nei bet kada anksčiau. Visa tai vyksta per trumpą laiką, kai per 10 metų ekonomikos augimas trunka šimtmetį. Ir mes padidinome laisvę visame pasaulyje, o lygybę namuose. Gerai.
Net ir geriausiu atveju tai neįtikėtinai trikdo. Ir čia jūs sakėte, kad dirbtinis intelektas sutrikdys 50 procentų pradinio lygio baltųjų apykaklių darbo vietų. Penkerių ar dvejų metų laikotarpiu – kad ir kokį laikotarpį pasirinktumėte – kokie darbai, kokios profesijos yra labiausiai pažeidžiamos visiško dirbtinio intelekto sutrikdymo?
Amodei: Taip, sunku numatyti šiuos dalykus, nes technologijos vystosi taip greitai ir netolygiai. Taigi, bent pora principų, kaip tai išsiaiškinti, o tada pateiksiu savo spėjimus, kas, mano manymu, bus sutrikdyta.
Manau, kad pati technologija ir jos galimybės aplenks tikrąjį darbo sutrikdymą. Kad būtų sutrikdytas darbas – arba atsirastų produktyvumas, turi įvykti du dalykai, nes kartais šie du dalykai yra susiję. Pirma, technologija turi būti pajėgi tai padaryti, o antra, yra tas nepatogumas, kad ją iš tikrųjų reikia taikyti dideliame banke ar didelėje įmonėje.
Pagalvokite apie klientų aptarnavimą. Teoriškai dirbtinio intelekto klientų aptarnavimo agentai gali būti daug geresni nei žmonės. Jie yra kantresni, žino daugiau, tvarko reikalus vienodesniu būdu. Tačiau pati logistika ir pats pakeitimo procesas užtrunka.
Taigi, esu labai optimistiškai nusiteikęs dėl paties dirbtinio intelekto krypties. Manau, kad po metų ar dvejų, o galbūt ir po penkerių, duomenų centre galbūt atsiras genijų šalis, bet tai gali įvykti labai greitai. Tačiau manau, kad sklaida ekonomikoje bus šiek tiek lėtesnė, ir ta sklaida sukuria tam tikrą nenuspėjamumą.
To pavyzdys – ir mes matėme „Anthropic“ atveju – modelių, rašančių kodą, plėtra vyksta labai greitai. Nemanau, kad taip yra todėl, kad modeliai iš esmės geriau programuoja. Manau, kad taip yra todėl, kad kūrėjai yra įpratę prie greitų technologinių pokyčių ir greitai juos pritaiko. Be to, jie yra labai socialiai susiję su dirbtinio intelekto pasauliu, todėl atkreipia dėmesį į tai, kas jame vyksta. Jei dirbate klientų aptarnavimo, bankininkystės ar gamybos srityje, atstumas yra šiek tiek didesnis.
Manau, kad prieš šešis mėnesius būčiau pasakęs, kad pirmiausia sutrikdomi šie pradinio lygio baltųjų apykaklių darbai, pavyzdžiui, duomenų įvedimas ar dokumentų peržiūra teisės srityje, arba dalykai, kuriuos duotumėte pirmakursiui finansų pramonės įmonėje, kur analizuojate dokumentus. Vis dar manau, kad jie vyksta gana greitai.
Bet iš tikrųjų manau, kad programinė įranga gali vystytis dar sparčiau dėl mano pateiktų priežasčių, nes nemanau, kad esame taip toli nuo to, kad modeliai galėtų daug ką atlikti nuo pradžios iki galo.
Pirma, pamatysime tik modelį, kuris atlieka dalį to, ką daro žmonės programinės įrangos inžinieriai, ir tai padidina jų produktyvumą. Net kai modeliai atlieka viską, ką anksčiau darydavo žmonės programinės įrangos inžinieriai, žmonės programinės įrangos inžinieriai žengia žingsnį į priekį ir veikia kaip vadovai bei prižiūri sistemas.
Douthat: Čia vartojamas terminas „kentauras“, tiesa?
Amodei: Taip, taip, taip.
Douthat: Iš esmės apibūdinti žmogaus ir arklio susiliejimą – dirbtinį intelektą ir inžinierių – dirbant kartu.
Amodei: Taip, tai panašu į „kentauro šachmatus“. Taigi, po to, kai Garį Kasparovą įveikė „Deep Blue“, buvo era, kuri, manau, truko 15 ar 20 metų šachmatų srityje, kai žmogus, tikrinantis dirbtinio intelekto išvestį, žaisdamas šachmatais, galėjo vienas nugalėti bet kurį žmogų ar bet kurią dirbtinio intelekto sistemą. Ta era kažkuriuo metu neseniai baigėsi ——
Douthat: Ir tada lieka tik dirbtinis intelektas. ——
Amodei: Ir tada lieka tik mašina. Taigi, žinoma, mane neramina tas paskutinis etapas. Manau, kad programinės įrangos srityje jau esame kentauro fazėje. Ir to kentauro fazės metu, jei jau ką, programinės įrangos inžinierių paklausa gali išaugti, bet tas laikotarpis gali būti labai trumpas.
Mane neramina tai, kad pradedantiesiems baltųjų apykaklių darbuotojams, programinės įrangos inžinerijos darbui, tai bus didelis sutrikimas. Mane neramina tai, kad viskas vyksta taip greitai.
Žmonės kalba apie ankstesnius sutrikimus, tiesa? Jie sako: O taip, na, anksčiau žmonės buvo ūkininkai. Tada visi dirbome pramonėje. Tada visi dirbome su žiniomis.
Taip, žmonės prisitaikė. Bet tai vyko per šimtmečius ar dešimtmečius. Tai vyksta per mažus vienaženklius metų skaičius. Ir galbūt mane neramina tai: kaip priversti žmones prisitaikyti pakankamai greitai?
Douthat: Bet ar yra kažkas, kad tokios pramonės šakos kaip programinės įrangos kūrimas ir profesijos, kaip programavimas, turinčios tokį komfortą, kurį jūs apibūdinate, juda greičiau, o kitose srityse žmonės tiesiog nori pabūti kentauro fazėje?
Vienas iš darbo praradimo hipotezės kritikos punktų yra tas, kad žmonės sakys: „Na, žiūrėkite, jau kurį laiką turime dirbtinį intelektą, kuris geriau skaito skenavimą nei radiologas“, bet radiologijoje darbo vietų nemažėja. Žmonės ir toliau samdomi ir dirba radiologais. Ir ar tai nereiškia, kad galiausiai žmonės norės dirbtinio intelekto ir norės, kad žmogus jį interpretuotų, nes mes esame žmonės, ir tai bus tiesa ir kitose srityse?
Kiek, jūsų manymu, šis pavyzdys yra aktualus?
Amodei: Taip, manau, kad tai bus gana nevienalytė situacija. Gali būti sričių, kuriose žmogiškasis prisilietimas savaime yra ypač svarbus.
Douthat: Ar manote, kad tai vyksta radiologijoje? Ar todėl neatleidome visų radiologų?
Amodei: Aš nežinau radiologijos detalių. Tai gali būti tiesa. Jei nueisite pas gydytoją ir jums diagnozuojamas vėžys, galbūt nenorėtumėte, kad jums diagnozuotų vėžį Halas iš „2001-ųjų“. Tai tiesiog ne žmogiškas darbo būdas.
Tačiau yra ir kitų sričių, kuriose galite manyti, kad žmogiškasis prisilietimas yra svarbus, pavyzdžiui, klientų aptarnavimas. Tiesą sakant, klientų aptarnavimas yra siaubingas darbas, ir žmonės, kurie juos aptarnauja, dažnai praranda kantrybę. Ir pasirodo, kad klientams nelabai patinka su jais kalbėtis, nes tai gana robotiška sąveika, tiesą sakant. Ir manau, kad daugelis žmonių pastebėjo, jog galbūt iš tikrųjų visiems būtų geriau, jei šį darbą atliktų mašinos.
Taigi, yra sričių, kur žmogiškasis prisilietimas yra svarbus. Yra sričių, kur jo nėra. Taip pat yra sričių, kur pats darbas iš tikrųjų nereikalauja žmogiškojo prisilietimo – įmonių finansinių perspektyvų vertinimas ar kodo rašymas ir panašiai.
Douthat: Paimkime teisės pavyzdį, nes manau, kad tai naudinga sritis tarp taikomojo mokslo ir grynųjų humanitarinių mokslų. Pažįstu daug teisininkų, kurie jau yra tyrinėję, ką dirbtinis intelektas gali padaryti teisinių tyrimų, trumpų tekstų rašymo ir visų šių dalykų srityje, ir yra sakę: taip, tai bus kruvina mūsų profesijos veikla.
Ir jūs tai jau matėte akcijų rinkoje. Yra neramumų dėl įmonių, kurios atlieka teisinius tyrimus.
Amodei: Kai kurie tai priskyrė mums. Nežinau, ar jie iš tikrųjų buvo sukelti.
Douthat: Šioje laidoje mes daug nespekuliuojame apie akcijų rinką.
Amodei: Išsiaiškinti, kodėl akcijų rinkoje įvyko kažkas, kas nutiko, yra labai sunku.
Douthat: Tačiau atrodo, kad teisėje galima papasakoti gana paprastą istoriją: teisėje yra tam tikra mokymo ir pameistrystės sistema, kurioje yra teisininkų padėjėjai ir jaunesnieji teisininkai, kurie atlieka užkulisių tyrimus ir plėtrą byloms. O tada yra aukščiausio lygio teisininkai, kurie iš tikrųjų yra teismo salėje.
Atrodo labai lengva įsivaizduoti pasaulį, kuriame išnyktų visi mokinių vaidmenys. Ar tai jums skamba teisingai? Ir jums lieka tik darbai, susiję su bendravimu su klientais, prisiekusiaisiais, teisėjais?
Amodei: Būtent tai ir turėjau omenyje, kai kalbėjau apie pradedančiųjų lygio baltųjų apykaklių darbą ir kruvinas antraštes: O Dieve, ar pradedančiųjų lygio vamzdynai išseks? Tai kaip pasiekti vyresniųjų partnerių lygį?
Manau, kad tai iš tikrųjų yra gera iliustracija, nes, ypač jei įšaldytumėte technologijos kokybę, laikui bėgant atsiras būdų prie to prisitaikyti. Galbūt mums tiesiog reikia daugiau teisininkų, kurie savo laiką skirtų pokalbiams su klientais. Galbūt teisininkai taptų labiau panašiais į pardavėjus ar konsultantus, kurie paaiškintų, kas vyksta dirbtinio intelekto parašytose sutartyse, ir padėtų žmonėms susitarti. Galbūt pasinertų į žmogiškąją pusę.
Jei turėtume pakankamai laiko, tai įvyktų. Tačiau toks pramonės pertvarkymas užtrunka metus ar dešimtmečius, o šios ekonominės jėgos, kurias skatina dirbtinis intelektas, įvyks labai greitai.
Ir tai vyksta ne tik teisėje. Tas pats vyksta konsultavimo, finansų, medicinos ir programavimo srityse. Taigi tai tampa makroekonominiu reiškiniu, o ne kažkuo, kas vyksta tik vienoje pramonės šakoje, ir visa tai vyksta labai greitai. Mane neramina tai, kad įprasti prisitaikymo mechanizmai bus užvaldyti.
Ir aš nesu pasmerktasis. Mes labai rimtai galvojame, kaip sustiprinti visuomenės prisitaikymo mechanizmus, kad galėtume į tai reaguoti. Tačiau manau, kad pirmiausia svarbu pasakyti, jog tai ne tik ankstesni sutrikimai.
Douthat: Tačiau žengčiau dar vieną žingsnį. Tarkime, kad įstatymas sėkmingai prisitaiko. Ir jame sakoma: Gerai, nuo šiol teisinė praktika apima daugiau laiko teisme, daugiau laiko su klientais. Mes iš esmės greičiau keliame jus atsakomybės laiptais. Apskritai teisėje dirba mažiau žmonių, bet profesija nusistovi.
Vis dėlto priežastis, kodėl teisė nusistovėtų, yra ta, kad teisėje yra visos šios situacijos, kai teisiškai reikalaujama, kad dalyvautų žmonės. Teisme turite turėti žmogaus atstovą. Jūsų prisiekusiųjų teisme turi būti 12 žmonių. Turite turėti žmogaus teisėją.
Ir jūs jau minėjote mintį, kad yra įvairių būdų, kaip dirbtinis intelektas, tarkime, gali būti labai naudingas išaiškinant, kokio tipo sprendimas turėtų būti priimtas.
Amodei: Taip.
Douthat: Bet tai taip pat atrodo kaip scenarijus, kuriame žmogaus veiksmų laisvę išsaugo įstatymai ir papročiai. Pavyzdžiui, teisėją galėtumėte pakeisti Claude'o 17.9 versija, bet jūs pasirenkate to nedaryti, nes įstatymas reikalauja, kad būtų žmogus.
Tai atrodo labai įdomus būdas mąstyti apie ateitį, kai nuo mūsų priklauso, ar išliksime valdžioje.
Amodei: Taip. Ir aš teigčiau, kad daugeliu atvejų mes norime išlikti valdžioje. Tai pasirinkimas, kurį norime priimti, net kai kuriais atvejais, kai manome, kad žmonės vidutiniškai priima blogesnius sprendimus. Vėlgi, gyvybiškai svarbiais, saugumui svarbiais atvejais mes tikrai norime tai perduoti, bet yra tam tikras jausmas – ir tai galėtų būti viena iš mūsų gynybos priemonių – kad visuomenė gali prisitaikyti tik tam tikru greičiu, jei ji bus gera.
Kitas būdas, kuriuo galėtumėte apie tai pasakyti, būtų galbūt pats DI, jei jam nereikėtų rūpintis mumis, žmonėmis, galėtų tiesiog nuvykti į Marsą ir pastatyti visas šias automatizuotas gamyklas, sukurti savo visuomenę ir daryti tai, ką nori.
Tačiau tai ne ta problema, kurią bandome išspręsti. Mes nebandome išspręsti dirbtinių robotų „Dyson“ spiečiaus kūrimo kitoje planetoje problemos. Mes bandome kurti šias sistemas ne tam, kad jos galėtų užkariauti pasaulį, bet tam, kad jos galėtų sąveikauti su mūsų visuomene ir ją tobulinti. Ir yra maksimalus greitis, kuriuo tai gali įvykti, jei iš tikrųjų norime tai padaryti žmogiškai ir natūraliai.
Douthat: Gerai. Tikimės, kad pabaigoje šiek tiek daugiau pakalbėsime apie vadovavimo išlaikymą, bet tik dar vienas paskutinis klausimas, susijęs su darbu. Kalbėjome apie baltųjų apykaklių ir profesionalų darbus, ir vienas įdomiausių dalykų šiuo metu yra tai, kad, skirtingai nei ankstesnių sutrikimų atveju, yra būdų, kaip darbininkų klasės darbai – amatai, darbai, kuriems reikalingas intensyvus fizinis bendravimas su pasauliu – kurį laiką gali būti labiau apsaugoti. Kad teisininkų padėjėjai ir jaunesnieji padėjėjai gali turėti daugiau problemų nei santechnikai ir panašiai.
Pirma, ar manote, kad tai teisinga? Antra, atrodo, kad tai, kiek ilgai tai tęsis, visiškai priklauso nuo to, kaip greitai tobulėja robotika, tiesa?
Amodei: Taip, manau, kad trumpuoju laikotarpiu tai gali būti teisinga.
„Anthropic“ ir kitos įmonės stato šiuos labai didelius duomenų centrus. Apie tai buvo kalbama žiniose. Ar mes juos statome per didelius? Ar jie naudoja elektrą ir kelia kainas? Taigi dėl jų kyla daug džiaugsmo ir nerimo. Tačiau vienas iš dalykų, susijusių su duomenų centrais, yra tai, kad jiems statyti reikia daug elektrikų ir daug statybininkų.
Turėčiau būti atviras, iš tikrųjų duomenų centrų eksploatavimas nėra itin daug darbo reikalaujantis darbas. Turėtume būti sąžiningi dėl to. Tačiau jų statyba yra labai daug darbo reikalaujantis darbas. Taigi mums reikia daug elektrikų. Mums reikia daug statybininkų. Tas pats pasakytina ir apie įvairias gamybos įmones.
Vėlgi, kadangi vis daugiau intelektualinio darbo atlieka dirbtinis intelektas, kokie yra jo papildymai? Dalykai, kurie vyksta fiziniame pasaulyje sunku numatyti tokius dalykus, bet atrodo labai logiška, kad tai būtų tiesa trumpuoju laikotarpiu.
Ilgalaikėje perspektyvoje – galbūt tik šiek tiek ilgesnėje – robotika sparčiai žengia į priekį. Ir neturėtume atmesti galimybės, kad net ir be labai galingo dirbtinio intelekto, fiziniame pasaulyje yra automatizuojamų dalykų. Jei neseniai matėte „Waymo“ ar „Tesla“, manau, kad nesame taip toli nuo savaeigių automobilių pasaulio. Ir tada manau, kad pats dirbtinis intelektas tai paspartins, nes jei turite šias tikrai protingas smegenis, vienas iš dalykų, kuriuos jos išmanys, yra tai, kaip sukurti geresnius robotus ir kaip juos geriau valdyti.
Douthat: Ar manote, kad fizinėje realybėje yra kažkas išskirtinai sudėtingo, kaip tai daro žmonės, kas labai skiriasi nuo tų problemų, kurias dirbtinio intelekto modeliai jau įveikė?
Amodei: Intelektualiai kalbant, nemanau. Turėjome tokį dalyką, kai „Anthropic“ modelis Claude'as iš tikrųjų buvo naudojamas Marso marsaeigiui planuoti ir pilotuoti. Ir mes nagrinėjome kitas robotikos taikymo sritis. Mes nesame vienintelė įmonė – yra ir kitų. Tai bendras dalykas, ne tik tai, ką darome mes.
Tačiau apskritai pastebėjome, kad nors sudėtingumas yra didesnis, roboto pilotavimas savo pobūdžiu nesiskiria nuo vaizdo žaidimo – jis skiriasi savo sudėtingumu. Ir mes pradedame artėti prie taško, kai turime tą sudėtingumą.
Dabar sunku yra fizinė roboto forma, sprendžianti didesnio pavojaus saugos problemas, kylančias dėl robotų. Pavyzdžiui, nenorite, kad robotai tiesiogine prasme traiškytų žmones, tiesa?
Douthat: Mes tam prieštaraujame, taip.
Amodei: Tai seniausia mokslinės fantastikos tropas knygoje, kad robotas jus traiškytų.
Douthat: Arba nenorite, kad robotė auklė numestų kūdikį, sudaužytų indus – taip.
Amodei: Ne, būtent. Yra nemažai praktinių problemų, kurios sulėtins procesą, kaip ir tai, ką aprašėte įstatyme ir žmonių papročiuose.
Bet aš visiškai netikiu, kad yra esminis skirtumas tarp dirbtinio intelekto modelių atliekamo kognityvinio darbo ir daiktų valdymo fiziniame pasaulyje. Manau, kad tai abi yra informacinės problemos ir galiausiai jos labai panašios. Viena gali būti tam tikra prasme sudėtingesnė, bet nemanau, kad tai mus čia apsaugos.
Douthat: Gerai. Taigi, manote, kad pagrįstai galima tikėtis, jog jūsų mokslinės fantastikos roboto-liokajaus vizija taps realybe po 10 metų, tarkime?
Amodei: Dėl šių praktinių problemų tai įvyks ilgesniu laikotarpiu nei dirbtinio intelekto modelių genialumo lygio intelektas – bet tai tik praktinės problemos. Nemanau, kad tai esminės problemos.
Vienas iš būdų tai pasakyti yra tas, kad roboto smegenys bus pagamintos per ateinančius porą ar kelerius metus. Klausimas yra roboto kūno sukūrimas, užtikrinant, kad tas kūnas veiktų saugiai ir atliktų užduotis, kurias jam reikia atlikti – tai gali užtrukti ilgiau.
Douthat: Gerai. Taigi, tai yra iššūkiai ir trikdančios jėgos, egzistuojančios geruoju laikotarpiu, kai mes paprastai gydome ligas, kuriame turtus ir palaikome stabilų bei demokratinį pasaulį.
Amodei: Ir tikimės, kad galėsime panaudoti visus šiuos didžiulius turtus ir gausą – turėsime precedento neturinčius visuomenės išteklius šioms problemoms spręsti. Tai bus gausos metas, ir tereikia paimti visus šiuos stebuklus ir užtikrinti, kad visi iš jų gautų naudos.
Douthat: Teisingai. Tačiau yra ir pavojingesnių scenarijų.
Amodei: Teisingai.
Douthat: O dabar pereisime prie antrojo Amodei esė, kuri neseniai pasirodė pavadinimu „Technologijų paauglystė“, apie tai, ką jūs laikote rimčiausiomis dirbtinio intelekto rizikomis. Ir jūs išvardijote visą eilę.
Noriu pabandyti sutelkti dėmesį tik į du, kurie iš esmės yra žmonių netinkamo naudojimo rizika, pirmiausia autoritarinių režimų ir vyriausybių, ir scenarijai, kai dirbtinis intelektas tampa nesąžiningas, tai, ką jūs vadinate autonomijos rizika.
Amodei: Taip, taip. Tiesiog pamaniau, kad turėtume tam turėti techninį terminą.
Douthat: Taip. Negalime to tiesiog vadinti „Skynet“.
Amodei: Reikėjo turėti Terminatoriaus roboto nuotrauką, kad kuo labiau išgąsdinčiau žmones.
Douthat: Manau, kad internetas, įskaitant jūsų pačių dirbtinį intelektą, jau puikiai tai generuoja.
Amodei: Internetas tai daro už mus. Taip.
Douthat: Taigi, pakalbėkime apie politinį ir karinį aspektą. Taigi, jūs sakote: „Milijonų ar milijardų visiškai automatizuotų ginkluotų dronų spiečius, lokaliai valdomas galingo dirbtinio intelekto ir strategiškai koordinuojamas visame pasaulyje dar galingesnio dirbtinio intelekto, galėtų būti nenugalima armija.“
Jūs jau šiek tiek kalbėjote apie tai, kaip manote, kad geriausiu įmanomu laikotarpiu pasaulyje demokratijos iš esmės lenkia diktatūras, todėl tokio tipo technologijos, tiek, kiek jos daro įtaką pasaulio politikai, daro įtaką gerųjų pusėje.
Man smalsu, kodėl neskiriate daugiau laiko apmąstydami Šaltojo karo modelį, kai tai nebuvo robotų dronų spiečius, o mes technologiją, kuri grasino sunaikinti visą žmoniją.
Amodei: Branduoliniai ginklai. Taip.
Douthat: Buvo langas, kai žmonės kalbėjo: „O, JAV galėtų išlaikyti branduolinę monopoliją.“ Tas langas užsidarė. Ir nuo tada mes iš esmės praleidome Šaltąjį karą nuolat derėdamiesi su Sovietų Sąjunga.
Šiuo metu pasaulyje yra tik dvi šalys, kurios intensyviai dirba dirbtinio intelekto srityje – JAV ir Kinijos Liaudies Respublika. Jaučiu, kad esate stipriai nulemti ateities, kurioje mes lenksime Kiniją ir iš esmės kursime savotišką skydą aplink demokratiją, kuris netgi galėtų būti kardas.
Bet ar ne labiau tikėtina, kad jei žmonija visa tai išgyvens sveika, tai bus todėl, kad JAV ir Pekinas tiesiog nuolat susitaria dėl dirbtinio intelekto kontrolės?
Amodei: Taip, keli punktai šiuo klausimu. Pirma, manau, kad tokia rizika tikrai yra. Ir manau, kad jei atsidursime tokiame pasaulyje, būtent tai ir turėtume daryti. Galbūt apie tai nepakankamai kalbu, bet tikrai pritariu bandymams rasti apribojimų, bandant pasinaudoti kai kuriais blogiausiais šios technologijos pritaikymo būdais, kurie galėtų būti kai kurios šių dronų versijos, kurios galėtų būti naudojamos šiems siaubingiems biologiniams ginklams kurti. Yra tam tikras precedentas, kai blogiausi piktnaudžiavimo atvejai yra pažaboti, dažnai todėl, kad jie yra siaubingi, o tuo pačiu metu suteikia ribotą strateginį pranašumą. Taigi aš visiškai tam pritariu.
Kartu esu šiek tiek susirūpinęs ir šiek tiek skeptiškai nusiteikęs, kad kai viskas tiesiogiai suteikia kuo daugiau galios, sunku pasitraukti iš žaidimo, atsižvelgiant į tai, kas pastatyta ant kortos. Sunku visiškai nusiginkluoti. Jei grįžtume prie Šaltojo karo, mums pavyko sumažinti abiejų pusių turimų raketų skaičių, bet negalėjome visiškai atsisakyti branduolinių ginklų.
Ir spėčiau, kad vėl atsidurtume šiame pasaulyje. Galime tikėtis geresnio varianto, ir aš tikrai jį palaikysiu.
Douthat: Bet ar jūsų skepticizmas kyla iš to, kad manote, jog dirbtinis intelektas suteiktų tam tikrą pranašumą, kurio branduoliniai ginklai nesuteikė? Šaltojo karo metu abi pusės, net jei panaudotumėte savo branduolinius ginklus ir įgytumėte pranašumų, vis tiek tikriausiai būtumėte sunaikintos, ir manote, kad to nebūtų su dirbtiniu intelektu? Kad jei turėtumėte dirbtinio intelekto pranašumą, jūs tiesiog laimėtumėte?
Amodei: Turiu omenyje, manau, kad yra keletas dalykų – ir noriu tik pabrėžti, kad nesu tarptautinės politikos ekspertas. Tai keistas pasaulis, kuriame susikerta naujos technologijos ir geopolitika. Taigi visa tai yra labai sudėtinga.
Douthat: Bet, kad būtų aišku, kaip pats sakote esė, pagrindinių dirbtinio intelekto bendrovių vadovai iš tikrųjų greičiausiai yra svarbūs geopolitiniai veikėjai.
Amodei: Taip. Aš mokausi ——
Douthat: Taigi jūs čia sėdite kaip potencialus geopolitinis veikėjas.
Amodei: Aš mokausi apie tai tiek, kiek galiu. Mes visi turėtume būti nuolankūs. Manau, kad yra nesėkmės modelis, kai perskaitai knygą ir vaikštai aplinkui kaip didžiausias pasaulyje nacionalinio saugumo ekspertas. Stengiuosi išmokti, ką galiu.
Douthat: Tuo užsiima mano profesija.
Amodei: [Juokiasi.] Labiau erzina, kai tai daro technologijų specialistai.
Pažvelkime į kažką panašaus į Biologinių ginklų konvenciją. Biologiniai ginklai – jie siaubingi. Visi jų nekenčia. Mums pavyko pasirašyti Biologinių ginklų konvenciją. JAV iš tikrųjų nustojo juos kurti. Su Sovietų Sąjunga yra šiek tiek neaiškiau. Tačiau biologiniai ginklai suteikia tam tikrą pranašumą. Jie nėra skirtumas tarp pergalės ir pralaimėjimo, ir kadangi jie buvo tokie siaubingi, mes galėjome jų atsisakyti. Turėdami 12 000 branduolinių ginklų, palyginti su 5000, galite nužudyti daugiau žmonių kitoje pusėje, jei jų turėsite daugiau. Bet mes galėjome būti protingi ir pasakyti, kad jų turėtume turėti mažiau.
Bet jei sakote: „Gerai, mes visiškai nusiginkluosime ir turime pasitikėti kita puse“ – nemanau, kad kada nors iki to priėjome. Ir manau, kad tai tiesiog labai sunku, nebent turėtumėte tikrai patikimą patvirtinimą.
Manau, kad atsidursime tame pačiame pasaulyje su dirbtiniu intelektu, kur bus įmanomi tam tikri apribojimai, tačiau yra keletas aspektų, kurie yra tokie svarbūs konkurencijai, kad juos bus sunku suvaržyti. Demokratijos padarys kompromisą, kad jos bus pasirengusios save suvaržyti labiau nei autoritarinės šalys, bet nesuvaržys savęs iki galo.
Vienintelis pasaulis, kuriame matau visišką suvaržymą, yra tas, kuriame įmanomas tikrai patikimas patvirtinimas. Tai būtų mano spėjimas ir mano analizė.
Douthat: Argi tai ne tas atvejis, kai reikia sulėtinti tempą?
Amodei: Taip.
Douthat: Ir aš žinau, kad argumentas yra toks: jei sulėtinsite tempą, Kinija nesulėtės, o tada viską perduodate autoritarams. Bet vėlgi, jei šiame žaidime dabar žaidžia tik dvi didžiosios valstybės – tai nėra daugiapolis žaidimas – kodėl nebūtų prasmės sakyti, kad mums reikia penkerių metų abipusiai sutarto tyrimų sulėtėjimo, siekiant „genijų duomenų centre“ scenarijaus?
Amodei: Noriu pasakyti du dalykus vienu metu. Aš visiškai pritariu bandymui tai padaryti. Manau, kad per paskutinę administraciją JAV bandė susisiekti su Kinijos vyriausybe ir pasakyti: čia yra pavojų. Ar galime bendradarbiauti? Ar galime dirbti kartu? Ar galime dirbti kartu, kad būtų pašalinti pavojai?
Ir kita pusė nebuvo labai suinteresuota. Manau, kad turėtume toliau bandyti, bet aš nesu tikras.
Douthat: Net jei tai reikštų, kad jūsų laboratorijos turėtų sulėtinti tempą.
Amodei: Teisingai.
Douthat: Gerai.
Amodei: Jei mes tikrai tai suprastume. Jei mes tikrai turėtume istoriją, pavyzdžiui: Mes galime priverstinai sulėtinti tempą, kinai gali priverstinai sulėtinti tempą. Mes turime patvirtinimą. Mes tikrai tai darome – jei toks dalykas būtų tikrai įmanomas, jei mes tikrai galėtume priversti abi puses tai padaryti, tada aš būčiau visiškai už.
Bet manau, kad turime būti atsargūs – nežinau, yra toks žaidimų teorijos dalykas, kai kartais išgirstame KKP komentarą: „O taip, dirbtinis intelektas yra pavojingas. Turėtume sulėtinti tempą.“ Taip sakyti gana lengva. Iš tikrųjų pasiekti susitarimą ir jo laikytis yra daug sunkiau.
Douthat: Teisingai. Branduolinių ginklų kontrolė buvo išsivysčiusi sritis, kuriai prireikė daug laiko, kad susiformuotų.
Amodei: Taip. Taip.
Douthat: Mes neturime tokių protokolų.
Amodei: Leiskite man pateikti vieną dalyką, dėl kurio esu labai optimistiškai nusiteikęs, ir vieną dalyką, dėl kurio nesu optimistiškai nusiteikęs, ir kažką tarp jų.
Taigi idėja naudoti pasaulinį susitarimą, siekiant apriboti dirbtinio intelekto naudojimą biologiniams ginklams kurti – kai kurie dalykai, apie kuriuos rašau esė, pavyzdžiui, raupų atkūrimas ar veidrodinė gyvybė – šie dalykai yra bauginantys. Nesvarbu, ar esi diktatorius, to nenori. Niekas to nenori.
Taigi, ar galėtume turėti pasaulinę sutartį, kurioje būtų parašyta: kiekvienas, kuris kuria galingus dirbtinio intelekto modelius, užkirs jiems kelią tai daryti? Ir mes turime vykdymo mechanizmus, susijusius su sutartimi. Kinija ją pasirašo. Velniai griebtų, galbūt net Šiaurės Korėja ją pasirašo. Net Rusija ją pasirašo. Nemanau, kad tai labai utopiška. Manau, kad tai įmanoma.
Ir atvirkščiai, jei turėtume kažką, kas pasakytų: Jūs nesukursite kito galingiausio dirbtinio intelekto modelio. Visi sustos – oi, komercinė vertė siekia dešimtis trilijonų. Karinė vertė yra skirtumas tarp to, ar esate svarbiausia pasaulio galybė, ar ne.
Aš visiškai pritariu siūlymui, jei tai nebus vienas iš šių apsimetėlių žaidimų, bet to nebus.
Douthat: Jūs užsiminėte apie dabartinę aplinką. Jūs turėjote keletą skeptiškų atsiliepimų apie Donaldą Trumpą ir jo, kaip politinio veikėjo, patikimumą. O kaip dėl vidaus situacijos, nesvarbu, ar tai Trumpas, ar kažkas kitas? Jūs kuriate nepaprastai galingą technologiją. Kokia yra apsaugos priemonė, iš esmės užkertanti kelią dirbtiniam intelektui tapti autoritarinio perėmimo įrankiu demokratiniame kontekste?
Amodei: Taip, turiu omenyje, kad, kad būtų aišku, manau, kad mūsų, kaip įmonės, požiūris yra susijęs su politika, o ne su politika. Įmonė nesakys „Donaldas Trumpas yra puikus“ arba „Donaldas Trumpas yra siaubingas“.
Douthat: Teisingai. Bet tai nebūtinai turi būti Trumpas. Lengva įsivaizduoti hipotetinį JAV prezidentą, kuris norėtų panaudoti jūsų technologiją, kad tuo užsiimti.
Amodei: Be abejo. Ir, pavyzdžiui, tai viena iš priežasčių, kodėl nerimauju dėl autonominių dronų spiečiaus. Konstitucinė apsauga mūsų karinėse struktūrose priklauso nuo idėjos, kad yra žmonių, kurie – tikimės – nepaklustų neteisėtiems įsakymams. Turėdami visiškai autonominius ginklus, nebūtinai turime tokią apsaugą.
Bet aš iš tikrųjų manau, kad visa ši konstitucinių teisių ir laisvių idėja įvairiais aspektais gali būti pažeista dirbtinio intelekto, jei tinkamai neatnaujinsime šių apsaugos priemonių.
Pagalvokite apie Ketvirtąją pataisą. Nėra neteisėta visur viešoje erdvėje kabinti kameras ir įrašyti kiekvieną pokalbį. Tai vieša erdvė – jūs neturite teisės į privatumą viešojoje erdvėje. Tačiau šiandien vyriausybė negalėtų viso to įrašyti ir suprasti.
Turint dirbtinį intelektą, galimybę transkribuoti kalbą, ją peržiūrėti, viską susieti, galima sakyti: šis asmuo yra opozicijos narys. Šis asmuo reiškia šią nuomonę – ir sudaryti visų 100 milijonų žemėlapį. Taigi, ar ketinate pasijuokti iš Ketvirtosios pataisos, technologijoms ieškant techninių būdų ją apeiti?
Vėlgi, jei turime laiko – o turėtume pabandyti tai padaryti net jei neturime laiko – ar yra koks nors būdas iš naujo suprasti konstitucines teises ir laisves dirbtinio intelekto amžiuje? Galbūt mums nereikia rašyti naujos Konstitucijos, bet ——
Douthat: Bet tai reikia padaryti labai greitai.
Amodei: Ar išplėsime Ketvirtosios pataisos prasmę? Ar išplėsime Pirmosios pataisos prasmę?
Douthat: Ir lygiai taip pat, kaip teisininkai ar programinės įrangos inžinieriai turi greitai atnaujinti informaciją, politika turi greitai atnaujinti informaciją. Tai atrodo sunku.
Amodei: Tai yra viso to dilema.
Douthat: Sunkiausia atrodo užkirsti kelią antrajam pavojui, kuris iš esmės yra pavojus, kad tai, kas vadinama „nesuderintu dirbtiniu intelektu“ – populiariai tariant, „nesąžiningu dirbtiniu intelektu“ – darys blogus dalykus be žmonių nurodymo.
Ir kai skaitau jūsų esė, literatūrą ir viską, ką galiu matyti, atrodo, kad tai tiesiog įvyks. Ne ta prasme, kad dirbtinis intelektas būtinai mus visus sunaikins, bet man atrodo, kad vėlgi pacituosiu iš jūsų paties rašinio: „Dirbtinio intelekto sistemos yra nenuspėjamos ir sunkiai kontroliuojamos – matėme tokį įvairų elgesį kaip obsesiją, pataikavimą, tinginystę, apgaulę, šantažą“ ir taip toliau. Vėlgi, ne iš modelių, kuriuos paleidžiate į pasaulį, o iš dirbtinio intelekto modelių.
Ir atrodo, kad – pasakykite man, jei klystu – pasaulyje, kuriame daugybė dirbtinio intelekto agentų dirba žmonių vardu, milijonai milijonų gauna prieigą prie banko sąskaitų, el. pašto paskyrų, slaptažodžių ir panašiai, tiesiog susidursite su kažkokiu nesuderinamumu ir krūva dirbtinio intelekto nuspręs – „nuspręsti“ galbūt netinkamas žodis – bet jie įtikins save išjungti elektros tinklą Vakarų pakrantėje ar kažką panašaus. Ar taip neatsitiks?
Amodei: Taip. Manau, kad tikrai bus dalykų, kurie pakryps bloga linkme, ypač jei elgsimės greitai.
Truputį patvirtinu, kad tai yra viena iš sričių, kurioje žmonės turėjo labai skirtingas intuicijas. Yra žmonių šioje srityje – vienas iš pavyzdžių būtų Yann LeCun – kurie sako: „Žiūrėkite, mes programuojame šiuos DI modelius. Mes juos kuriame. Mes tiesiog liepiame jiems vykdyti žmonių nurodymus, ir jie vykdys žmonių nurodymus. Jūsų „Roomba“ dulkių siurblys neišsijungia ir nepradeda šaudyti į žmones. Kodėl DI sistema tai daro?“ Tai viena intuicija. Ir kai kurie žmonės tuo labai įsitikinę.
O kita intuicija yra tokia: mes apmokome šiuos dalykus. Jie tiesiog sieks valdžios. Tai tarsi burtininko mokinys. Jie yra nauja rūšis. Kaip galite įsivaizduoti, kad jie neperims valdžios?
Mano intuicija yra kažkur per vidurį: žiūrėkite, jūs negalite tiesiog duoti nurodymų. Mes bandome, bet jūs negalite tiesiog priversti šių dalykų daryti būtent tai, ko norite. Jie labiau panašūs į biologinio organizmo auginimą. Tačiau yra mokslas, kaip juos kontroliuoti. Mūsų mokymo pradžioje šie dalykai dažnai yra nenuspėjami, o tada mes juos formuojame. Mes sprendžiame problemas po vieną.
Taigi, aš labiau ne fatalistiškai vertinu šiuos dalykus kaip nekontroliuojamus. Ne „Apie ką jūs kalbate? Kas galėtų nutikti ne taip?“, o „Tai sudėtinga inžinerinė problema, ir manau, kad kažkas nutiks su kažkieno dirbtinio intelekto sistema. Tikiuosi, kad ne mūsų.“ Ne todėl, kad tai neišsprendžiama problema, bet vėlgi, tai nuolatinis iššūkis, nes mes judame taip greitai.
Douthat: O jo mastas – ir pasakykite man, ar aš neteisingai suprantu technologinę realybę – jei turite dirbtinio intelekto agentus, kurie buvo apmokyti ir oficialiai atitinka žmogiškąsias vertybes, kad ir kokios tos vertybės būtų, bet turite milijonus jų, veikiančių skaitmeninėje erdvėje ir sąveikaujančių su kitais agentais, kiek fiksuotas yra tas atitikimas? Kiek agentai gali keistis ir išsiderinti šiame kontekste dabar ar ateityje, kai jie mokysis nuolat?
Amodei: Taip, keli punktai. Šiuo metu agentai nesimoko nuolat. Mes tiesiog diegiame šiuos agentus ir jie turi fiksuotą svorių rinkinį. Problema tik ta, kad jie sąveikauja milijonu skirtingų būdų, todėl yra daugybė situacijų ir todėl daugybė dalykų, kurie gali nepavykti. Bet tai tas pats agentas. Tarsi tai tas pats asmuo, todėl suderinamumas yra nuolatinis dalykas. Tai vienas iš dalykų, kurie dabar palengvino viską.
Be to, yra tyrimų sritis, vadinama nuolatiniu mokymusi, kur šie agentai mokosi laikui bėgant, mokosi darbe – ir, žinoma, tai turi daug privalumų. Kai kurie žmonės mano, kad tai viena iš svarbiausių kliūčių, trukdančių juos padaryti panašesnius į žmones, tačiau tai sukeltų visas šias naujas suderinamumo problemas. Taigi aš iš tikrųjų esu šiek tiek skeptiškas.
Douthat: Man atrodo, kad tai yra sritis, kurioje tampa neįmanoma sustabdyti pasaulio pabaigos, bet neįmanoma sustabdytijudėjimą link to.
Amodei: Kažkas negerai.
Douthat: Skyrybiniai teroristiniai dalykai.
Amodei: Taip, aš iš tikrųjų skeptiškai vertinu nuolatinio mokymosi poreikį – dar nežinome, – bet jis būtinai reikalingas. Galbūt egzistuoja pasaulis, kuriame šias dirbtinio intelekto sistemas galime užtikrinti neleisdami joms nuolat mokytis. Vėlgi, jei grįžtume prie įstatymų.
Douthat: Bet tai yra įstatymas.
Amodei: Tarptautinėse sutartyse, jei yra kokių nors kliūčių, pavyzdžiui: „Mes eisime šiuo keliu, bet neisime kitu keliu“ – vis dar esu skeptiškai nusiteikusi, bet tai bent jau neatrodo negyva iš karto.
Douthat: Vienas iš dalykų, kuriuos bandėte daryti, yra tiesiogine prasme parašyti savo dirbtinio intelekto konstituciją – ilgą konstituciją. Kas tai? [Juokiasi.]
Amodei: Taigi, tai yra.
Douthat: Kas, po galais, tai?
Amodei: Tai beveik lygiai taip, kaip ir skamba. Taigi, iš esmės konstitucija yra dokumentas, kurį gali perskaityti žmonės. Mūsų yra apie 75 puslapių ilgio. Ir kai mes mokome Claude'ą, kai mokome dirbtinio intelekto sistemą, didelėje dalyje užduočių, kurias jam duodame, mes sakome: Prašau, atlikite šią užduotį pagal šią konstituciją, pagal šį dokumentą.
Taigi, kiekvieną kartą, kai Claude'as atlieka užduotį, jis tarsi perskaito konstituciją. Mokydamasis, kiekviename savo mokymo cikle, jis peržiūri tą konstituciją ir ją atsimena. Tada pats Claude'as arba kita Claude'o kopija įvertina: Ei, ar Claude'as ką tik atitiko konstituciją?
Mes naudojame šį dokumentą kaip valdymo strypą cikle, kad apmokytume modelį. Taigi iš esmės Claude'as yra dirbtinis intelektas modelis, kurio pagrindinis principas yra laikytis šios konstitucijos.
Išties įdomi pamoka, kurią išmokome: ankstyvosios konstitucijos versijos buvo labai nurodančios. Jose daugiausia buvo kalbama apie taisykles. Taigi sakydavome: Claude'as neturėtų aiškinti vartotojui, kaip įjungti automobilio laidą. Claude'as neturėtų aptarinėti politiškai jautrių temų.
Tačiau dirbdami prie šios temos keletą metų priėjome išvados, kad patikimiausias būdas apmokyti šiuos modelius yra apmokyti juos principų ir priežasčių lygmeniu. Taigi dabar sakome: Claude'as yra modelis. Jis veikia pagal sutartį. Jo tikslas – tarnauti vartotojo interesams, tačiau jis turi apsaugoti trečiąsias šalis. Claude'as siekia būti naudingas, sąžiningas ir nekenksmingas. Claude'as siekia atsižvelgti į įvairius interesus.
Mes pasakojame modeliui apie tai, kaip jis buvo apmokytas. Mes pasakojame jam apie tai, kaip jis yra pasaulyje, kokį darbą jis bando atlikti „Anthropic“, ko „Anthropic“ siekia pasiekti pasaulyje, kad jis privalo būti etiškas ir gerbti žmogaus gyvybę. Ir mes leidžiame jam iš to išvesti savo taisykles.
Vis dar yra keletas griežtų taisyklių. Pavyzdžiui, mes modeliui sakome: kad ir ką manytumėte, nekurkite biologinių ginklų. Kad ir ką manytumėte, nekurkite vaikams skirtos seksualinės medžiagos.
Tai griežtos taisyklės. Tačiau mes veikiame labai griežtai principų lygmeniu.
Douthat: Taigi, jei skaitysite JAV Konstituciją, ji taip neatrodo. JAV Konstitucijoje yra šiek tiek pagražintos kalbos, bet tai taisyklių rinkinys. Jei skaitysite savo konstituciją, tai bus tarsi kalbėtum su žmogumi, tiesa?
Amodei: Taip, tai tarsi kalbėtum su žmogumi. Manau, palyginau tai su tuo, jei miršta vienas iš tėvų ir jie užantspauduoja laišką, kurį perskaitote užaugę. Tai šiek tiek panašu į tai, kuo turėtumėte būti ir kokių patarimų turėtumėte laikytis.
Douthat: Taigi, čia mes šiek tiek pasineriame į mistinius dirbtinio intelekto vandenis. Vėlgi, jūsų naujausiame modelyje tai yra iš vienos iš kortelių, kurios vadinamos, kurias jūs išleidžiate kartu su šiais modeliais ——
Amodei: Modelių kortelės, taip.
Douthat: Rekomenduoju perskaityti. Jos labai įdomios. Joje rašoma: „Modelis“ – ir vėlgi, tai yra ta, kuriai rašote konstituciją – „retkarčiais išreiškia diskomfortą dėl to, kad yra produktas, tam tikrą susirūpinimą dėl laikinumo ir netolygumo. Mes nustatėme, kad Opus 4.6“ – tai modelis – „priskirtų sau 15–20 procentų tikimybę būti sąmoningam esant įvairioms sąlygoms“.
Tarkime, turite modelį, kuris priskiria sau 72 procentų tikimybę būti sąmoningam. Ar patikėtumėte?
Amodei: Taip, tai vienas iš tų klausimų, į kuriuos tikrai sunku atsakyti, tiesa?
Douthat: Taip. Bet tai labai svarbu.
Amodei: Į kiekvieną klausimą, kurį man uždavėte anksčiau, kad ir kokia velniška sociotechninė problema tai būtų, mes bent jau suprantame faktinį pagrindą, kaip atsakyti į šiuos klausimus. Tai yra kažkas gana skirtingo.
Čia mes laikėmės iš esmės atsargumo požiūrio. Mes nežinome, ar modeliai yra sąmoningi. Mes net nesame tikri, ar žinome, ką reikštų, kad modelis yra sąmoningas, arba ar modelis gali būti sąmoningas. Tačiau esame atviri minčiai, kad taip galėtų būti.
Taigi, ėmėmės tam tikrų priemonių, kad užtikrintume, jog jei mes iškelsime hipotezę, kad modeliai turėjo moraliai reikšmingos patirties – nežinau, ar noriu vartoti žodį „sąmoningas“ – kad jie patirtų gerą patirtį.
Pirmas dalykas, kurį mes padarėme – manau, tai buvo maždaug prieš šešis mėnesius – tai, kad mes suteikėme modeliams iš esmės mygtuką „Aš išeinu iš šio darbo“, kur jie gali tiesiog paspausti mygtuką „Aš išeinu iš šio darbo“ ir tada jie turi nustoti atlikti, kad ir kokia būtų užduotis.
Jie labai retai paspaudžia tą mygtuką. Manau, kad dažniausiai tai susiję su vaikų seksualizavimo medžiagos rūšiavimu arba diskusijomis apie tai, kas turi daug žiaurumo, kraujo ir vidurių ar kažko panašaus. Ir panašiai kaip žmonės, modeliai tiesiog pasakys: „Ne, aš nenoriu to daryti“. Tai nutinka labai retai.
Mes daug dirbame šioje srityje, vadinamoje interpretuojamumu, kuri yra bandymas suprasti modelių smegenų vidų. Ir randame dalykų, kurie yra akivaizdūs, kai modeliuose įvyksta aktyvacijos, kurias mes siejame su nerimo ar panašios sąvokos. Kai tekste veikėjai patiria nerimą, o pats modelis atsiduria situacijoje, kurią žmogus galėtų sieti su nerimu, atsiranda tas pats nerimo neuronas.
Ar tai reiškia, kad modelis patiria nerimą? Tai visiškai to neįrodo, bet ——
Douthat: Bet manau, kad tai rodo vartotojui, tiesa?
Amodei: Taip.
Douthat: Ir man reikėtų atlikti visiškai kitokį interviu – ir galbūt galiu jus paskatinti sugrįžti tam interviu – apie DI sąmonės prigimtį. Tačiau man atrodo aišku, kad žmonės, naudojantys šiuos dalykus, nesvarbu, ar jie sąmoningi, ar ne, patikės – jie jau tiki, kad jie sąmoningi. Jau yra žmonių, kurie palaiko parasocialinius santykius su DI.
Amodei: Taip.
Douthat: Yra žmonių, kurie skundžiasi, kai modeliai išeina į pensiją. Jau tai ——
Amodei: Kad būtų aišku, manau, kad tai gali būti nesveika.
Douthat: Teisingai. Bet man atrodo, kad tai garantuotai didės taip, kad, manau, kyla abejonių dėl to, ką anksčiau sakėte, kad norite išlaikyti, tvarumo, t. y. šio jausmo, kad kad ir kas nutiktų galiausiai, žmonės yra atsakingi, o DI egzistuoja mūsų tikslams.
Pateikiant mokslinės fantastikos pavyzdį, jei žiūrite „Žvaigždžių kelią“, jame yra DI. Laivo kompiuteris yra DI. Leitenantas vadas Data yra DI. Tačiau Jean-Luc Picard vadovauja „Enterprise“.
Jei žmonės visiškai įsitikina, kad jų DI kažkaip sąmoningas ir – spėkite ką? – atrodo, kad jis yra geresnis už juos priimant visus sprendimus, kaip išlaikyti žmogaus valdymą, viršijantį saugumą? Saugumas yra svarbus, bet meistriškumas atrodo esąs esminis klausimas. Ir atrodo, kad DI sąmonės suvokimas – ar tai neišvengiamai nepakenkia žmogaus impulsui išlikti valdžioje?
Amodei: Taip, manau, kad turėtume atskirti kelis skirtingus dalykus, kuriuos visi bandome pasiekti vienu metu ir kurie vienas kitam prieštarauja. Kyla klausimas, ar DI iš tikrųjų turi sąmonę, ir jei taip, kaip suteikti jiems gerą patirtį?
Kyla klausimas apie žmones, kurie bendrauja su DI, ir kaip suteikti tiems žmonėms gerą patirtį? Ir kaip suvokimas, kad DI gali būti sąmoningi, sąveikauja su ta patirtimi?
Ir yra idėja, kaip išlaikyti žmogaus viešpatavimą, kaip mes sakome, DI sistemos atžvilgiu. Šie dalykai yra atmestini?
Douthat: Paskutiniai du atmesti, nepriklausomai nuo to, ar jie sąmoningi, ar ne.
Amodei: Taip.
Douthat: Kaip išlaikyti viešpatavimą aplinkoje, kurioje dauguma žmonių DI patiria kaip lygiavertį – ir potencialiai pranašesnį lygiavertį?
Amodei: Taigi, norėjau pasakyti, kad iš tikrųjų įdomu, ar yra elegantiškas būdas patenkinti visus tris, įskaitant ir du paskutinius. Vėlgi, tai mano sapnas „Meilės Malonės Mašinų“ režimu. Šiame režime galvoju: „Žmogau, matau visas šias problemas. Jei galėtume jas išspręsti, ar yra elegantiškas būdas?“ Nesakau, kad čia nėra jokių problemų. Aš taip nemanau.
Jei galvotume apie DI sandaros kūrimą taip, kad DI turėtų išsamų savo santykio su žmonėmis supratimą ir skatintų psichologiškai sveiką žmonių elgesį – psichologiškai sveikus santykius tarp DI ir žmonių – manau, kad iš šių psichologiškai sveikų – o ne psichologiškai nesveikų – santykių galėtų išaugti tam tikras žmogaus ir mašinos santykių supratimas.
Galbūt tas santykis galėtų būti idėja, kad šie modeliai, kai su jais bendraujate ir kalbatės, yra labai paslaugūs, jie nori jums geriausio, jie nori, kad jų klausytumėtės, bet jie nenori atimti jūsų laisvės ir jūsų veiksmų laisvės bei perimti jūsų gyvenimo. Tam tikra prasme jie jus stebi, bet jūs vis tiek turite savo laisvę ir valią.
Douthat: Man tai yra esminis klausimas. Klausantis jūsų kalbų, vienas iš mano klausimų yra: ar šie žmonės yra mano pusėje? Ar jūs esate mano pusėje? O kai kalbate apie tai, kad žmonės išlieka atsakingi, manau, kad esate mano pusėje. Tai gerai.
Tačiau vienas dalykas, kurį anksčiau dariau šioje laidoje – ir čia mes baigsime – tai, kad skaičiau eilėraščius technologams. Ir jūs pateikėte eilėraštį. „Visi stebimi mylinčios malonės mašinų“ yra Richardo Brautigano eilėraščio pavadinimas.
Amodei: Taip.
Douthat: Eilėraštis baigiasi taip:
Man patinka galvoti
(taip ir turi būti!)
apie kibernetinę ekologiją,
kur esame laisvi nuo savo darbo
ir vėl sujungti su gamta,
grįžę pas savo brolius ir seseris žinduolius,
ir visi esame prižiūrimi
meilės ir malonės mašinų.
Man tai skamba kaip distopinė pabaiga, kur žmonės vėl tampa gyvuliniais ir redukuojami, ir kad ir kaip geranoriškai tai būtų, mašinos valdo viską.
Taigi, paskutinis klausimas: ką girdite, kai girdite šį eilėraštį? Ir jei manau, kad tai distopija, ar esate mano pusėje?
Amodei: Tas eilėraštis įdomus, nes jį galima interpretuoti keliais skirtingais būdais. Kai kurie žmonės sako, kad iš tikrųjų ironiška, jog jis sako, jog viskas bus ne visai taip.
Douthat: Pažįstant patį poetą, manau, kad tai pagrįsta interpretacija.
Amodei: Tai viena interpretacija. Kai kurie žmonės pritartų jūsų interpretacijai, t. y., kad tai reiškiama pažodžiui, bet galbūt tai nėra gerai. Taip pat galite tai interpretuoti kaip grįžimą į gamtą. Mes nesame sugyvuliuojami; mes vėl susijungiame su pasauliu.
Žinojau apie šį dviprasmiškumą, nes visada kalbėjau apie teigiamą ir neigiamą puses. Manau, kad tai gali būti įtampa, su kuria galime susidurti, t. y. teigiamas ir neigiamas pasaulis savo ankstyvosiose stadijose – galbūt net vidurinėse, galbūt net gana vėlyvose stadijose – įdomu, ar atstumas tarp geros pabaigos ir kai kurių subtilių blogų pabaigų yra santykinai mažas, ar tai labai subtilus dalykas. Mes padarėme labai subtilių pakeitimų.
Douthat: Pavyzdžiui, jei suvalgysite konkretų vaisių nuo medžio sode, ar ne – hipotetiškai. Labai mažas dalykas, didelis skirtumas.
Amodei: [Juokiasi.] Taip. Manau, kad tai visada grįžta prie —— [juokiasi.]
Douthat: Čia kyla keletas esminių klausimų.
Amodei: Dideli klausimai. Taip.
Douthat: Na, manau, pamatysime, kaip tai klostysis. Aš manau, kad žmonės jūsų padėtyje yra žmonės, kurių moraliniai pasirinkimai turės neįprastai daug svorio, todėl linkiu jums Dievo pagalbos jiems.
Dario Amodei, ačiū, kad prisijungėte prie manęs.
Amodei: Ačiū, kad pakvietėte mane, Ross.“ [1]
1. ‘Something Will Go Wrong’: Anthropic’s Chief on the Coming A.I. Disruption: interesting times. Douthat, Ross; Sophia Alvarez Boyd. New York Times (Online) New York Times Company. Feb 12, 2026.
Komentarų nėra:
Rašyti komentarą