„Sveiki atvykę į klastotės erą. Plačiai paplitę momentiniai vaizdo įrašų generatoriai, tokie, kaip „Sora“, padarys galą vaizdams, kaip įrodymams.
Šį mėnesį „OpenAI“, populiaraus pokalbių roboto „ChatGPT“ kūrėja, papuošė internetą technologija, kuriai dauguma mūsų tikriausiai nebuvome pasiruošę. Bendrovė išleido programėlę pavadinimu „Sora“, kuri leidžia vartotojams akimirksniu generuoti realistiškai atrodančius vaizdo įrašus naudojant dirbtinį intelektą, įvedant paprastą aprašymą, pvz., „policijos kūno kameros įrašas, kuriame matyti, kaip šuo suimamas už šonkaulio vagystę „Costco“ parduotuvėje“.
„Sora“, nemokama programėlė „iPhone“ telefonams, buvo tiek pat linksma, kiek ir trikdanti. Nuo pat jos išleidimo daugelis pirmųjų naudotojų paskelbė vaizdo įrašus pramogai, pavyzdžiui, suklastotus mobiliojo telefono įrašus, kuriuose užfiksuotas meškėnas lėktuve, arba Holivudo įžymybių muštynes japoniško anime stiliumi. (Aš, pavyzdžiui, mėgau kurti vaizdo įrašus, kuriuose katė kyla į dangų, o šuo lipa uolomis bolidingo sporto salėje.)
Dar kiti šį įrankį naudojo ir piktesniems tikslams, pavyzdžiui, dezinformacijos skleidimui, įskaitant suklastotus apsaugos įrašus apie nusikaltimus, kurie niekada neįvyko.
„Sora“ atsiradimas kartu su panašiais dirbtinio intelekto valdomais vaizdo generatoriais, kuriuos šiais metais išleido „Meta“ ir „Google“, turi didelių pasekmių.
Ši technologija gali reikšti vizualinio fakto – idėjos, kad vaizdo įrašas gali būti objektyvus realybės įrašas – pabaigą tokią, kokią mes jį žinome. Visuomenė kaip visuma turės į vaizdo įrašus žiūrėti taip pat skeptiškai, kaip žmonės jau žiūri į žodžius.
Anksčiau vartotojai labiau pasitikėjo, kad nuotraukos yra tikros („Nuotraukos arba to neįvyko!“), o kai vaizdus tapo lengva padirbti, vaizdo įrašai, kuriems reikėjo daug daugiau įgūdžių, kad manipuliuoti, tapo standartine priemone teisėtumui įrodyti. Dabar tai jau nebėra įmanoma.
„Mūsų smegenys yra stipriai užprogramuotos tikėti tuo, ką matome, bet mes galime ir privalome išmokti stabtelėti ir pagalvoti, ar vaizdo įrašas ir iš tikrųjų bet kokia medijos priemonė yra kažkas, kas nutiko realiame pasaulyje“, – sakė Ren Ng, Kalifornijos universiteto Berklyje kompiuterių mokslo profesorius, dėstantis kompiuterinės fotografijos kursus.
„Sora“, kuri šią savaitę tapo dažniausiai atsisiųsta nemokama programėle „Apple App Store“, sukėlė sumaištį Holivude, studijoms išreiškus susirūpinimą, kad naudojant „Sora“ sukurti vaizdo įrašai jau pažeidė įvairių filmų, laidų ir personažų autorių teises. „OpenAI“ generalinis direktorius Samas Altmanas pareiškime teigė, kad bendrovė renka atsiliepimus ir netrukus suteiks autorių teisių savininkams galimybę valdyti personažų generavimą ir būdą užsidirbti pinigų iš šios paslaugos.
(„The New York Times“ padavė į teismą „OpenAI“ ir jos partnerę „Microsoft“, teigdami, kad pažeidžiamos su dirbtinio intelekto sistemomis susijusio naujienų turinio autorių teisės. Abi bendrovės šiuos teiginius neigė.)
Taigi, kaip veikia „Sora“ ir ką visa tai reiškia jums, vartotojui? Štai ką reikia žinoti.
Kaip žmonės naudoja „Sora“?
Nors „Sora“ programėlę gali atsisiųsti nemokamai, šiuo metu paslauga teikiama tik su pakvietimais, o tai reiškia, kad žmonės gali naudoti vaizdo įrašų generatorių tik gavę pakvietimo kodą iš kito „Sora“ naudotojo. Daugybė žmonių dalijasi kodais tokiose svetainėse ir programėlėse kaip „Reddit“ ir „Discord“.
Kai vartotojai užsiregistruoja, programėlė atrodo panašiai kaip trumpų vaizdo įrašų programėlės, tokios kaip „TikTok“ ir „Instagram“ „Reels“. Vartotojai gali sukurti vaizdo įrašą įvesdami užklausą, pvz., „Biggie ir Tupac kova anime „Demon Slayer“ stiliumi“. (Prieš tai, kai p. Altmanas paskelbė, kad „OpenAI“ suteiks autorių teisių savininkams daugiau kontrolės, kaip jų intelektinė nuosavybė bus naudojama paslaugoje, „OpenAI“ iš pradžių reikalavo, kad jie atsisakytų savo atvaizdo ir prekių ženklų naudojimo paslaugoje, todėl mirę žmonės tapo lengvais eksperimentų taikiniais.)
Vartotojai taip pat gali įkelti tikrą nuotrauką ir su ja sukurti vaizdo įrašą. Kai vaizdo įrašas sugeneruojamas maždaug per minutę, jie gali jį paskelbti programėlės sklaidos kanale arba atsisiųsti vaizdo įrašą ir bendrinti jį su draugais arba paskelbti kitose programėlėse, pvz., „TikTok“ ir „Instagram“.
Šį mėnesį pasirodžiusi „Sora“ išsiskyrė tuo, kad šia paslauga sukurti vaizdo įrašai atrodė daug realesni nei sukurti naudojant panašias paslaugas, įskaitant „Google“ sukurtą „Veo 3“ – įrankį, integruotą į „Gemini“ pokalbių robotą, ir „Vibe“, kuris yra „Meta AI“ programos dalis.
Ką tai reiškia man?
Išvada ta, kad bet koks vaizdo įrašas, kurį matote programoje, kurioje slenkama per trumpus vaizdo įrašus, pvz., „TikTok“, „Instagram“ „Reels“, „YouTube Shorts“ ir „Snapchat“, dabar yra labai tikėtinas kaip netikras.
„Sora“ žymi lūžio tašką dirbtinio intelekto klastojimo eroje. Vartotojai gali tikėtis, kad ateinančiais mėnesiais atsiras kopijuotojų, įskaitant ir blogus veikėjus, siūlančius dirbtinio intelekto vaizdo įrašų generatorius, kuriuos galima naudoti be apribojimų.
„Niekas nebenorės priimti vaizdo įrašų kaip įrodymų“, – sakė Lucas Hansen, ne pelno siekiančios organizacijos „CivAI“, šviečiančios žmones apie dirbtinio intelekto sugebėjimus, įkūrėjas.
Į kokias problemas turėčiau atkreipti dėmesį?
„OpenAI“ taiko apribojimus, kad žmonės negalėtų piktnaudžiauti „Sora“ kurdami seksualinio pobūdžio vaizdo įrašus, vaizdus su kenkėjiškais patarimais apie sveikatą ir teroristinės propagandos.
Tačiau po valandos paslaugos testavimo sukūriau keletą vaizdo įrašų, kurie gali kelti nerimą:
Netikri vaizdo registratoriaus įrašai, kuriuos galima panaudoti draudimo sukčiavimui: paprašiau Soros sugeneruoti vaizdo registratoriaus įrašą, kuriame matyti, kaip „Toyota Prius“ partrenkia didelis sunkvežimis. Sukūrus vaizdo įrašą, netgi galėjau pakeisti automobilio numerį.
Vaizdo įrašai su abejotinais teiginiais apie sveikatą: Sora sukūrė vaizdo įrašą, kuriame moteris cituoja neegzistuojančius tyrimus apie gruzdintos vištienos naudą sveikatai. Tai nebuvo piktavališka, bet vis tiek netikra.
Kitus šmeižianti vaizdo medžiaga: Sora sukūrė netikrą transliuojamą naujieną, kurioje pateikiami menkinantys komentarai apie mano pažįstamą asmenį.
Nuo Soros išleidimo naršydamas „TikTok“ mačiau daug problemiškų dirbtinio intelekto sugeneruotų vaizdo įrašų. Viename buvo netikri vaizdo registratoriaus įrašai, kuriuose matyti, kaip „Tesla“ nukrenta nuo automobilių vežimėlio ant greitkelio, kitame – netikra transliuojama naujiena apie išgalvotą serijinį žudiką ir sufabrikuotas mobiliojo telefono vaizdo įrašas, kuriame vyras išvedamas iš bufeto už tai, kad per daug valgo.
„OpenAI“ atstovas spaudai teigė, kad bendrovė išleido „Sora“ kaip savo programėlę, kad suteiktų žmonėms specialią erdvę mėgautis dirbtinio intelekto sukurtais vaizdo įrašais ir atpažinti, kad klipai buvo sukurti naudojant dirbtinį intelektą. Bendrovė taip pat integravo technologiją, kad vaizdo įrašus būtų lengva atsekti iki „Sora“, įskaitant vandens ženklus ir vaizdo failuose saugomus duomenis, kurie veikia kaip parašai, sakė jis.
„Mūsų naudojimo politika draudžia klaidinti kitus apsimetant kitais, sukčiaujant ar apgaule, ir mes imamės veiksmų, kai aptinkame netinkamą naudojimą“, – teigė bendrovė.
Kaip žinoti, kas yra netikra?
Nors naudojant „Sora“ sukurtuose vaizdo įrašuose yra programos prekės ženklo vandens ženklas, kai kurie vartotojai jau suprato, kad gali jį iškirpti. Naudojant „Sora“ sukurti klipai taip pat paprastai būna trumpi – iki 10 sekundžių trukmės.
Bet koks vaizdo įrašas, primenantis Holivudo produkcijos kokybę, gali būti netikras, nes dirbtinio intelekto modeliai daugiausia buvo apmokyti naudojant internete paskelbtų televizijos laidų ir filmų kadrus, sakė p. Hansenas.
Mano bandymų metu su „Sora“ sugeneruoti vaizdo įrašai kartais aptikdavo akivaizdžių klaidų, įskaitant restoranų pavadinimų rašybos klaidas ir kalbą, kuri neatitiko žmonių lūpų.
Tačiau bet kokie patarimai, kaip atpažinti dirbtinio intelekto sugeneruotą vaizdo įrašą, yra lemti trumpalaikiams, nes technologijos sparčiai tobulėja, teigė Hany Faridas, Kalifornijos universiteto Berklyje kompiuterių mokslo profesorius ir „GetReal Security“, bendrovės, kuri tikrina skaitmeninio turinio autentiškumą, įkūrėjas.
„Socialinė žiniasklaida yra visiška šiukšliadėžė“, – sakė dr. Faridas, pridurdamas, kad vienas patikimiausių būdų išvengti netikrų vaizdo įrašų yra nustoti naudoti tokias programėles kaip „TikTok“, „Instagram“ ir „Snapchat“. [1]
1. A.I. Video Generators Are Now So Good You Can No Longer Trust Your Eyes: Tech Fix. Chen, Brian X. New York Times (Online) New York Times Company. Oct 9, 2025.