„Šį mėnesį federalinis teisėjas nusprendė, kad vyro pokalbiai su „Anthropic“ pokalbių robotu „Claude“ nebuvo apsaugoti advokato ir kliento privilegijos, nors jis naudojosi pokalbių robotu ruošdamasis pokalbiui su teisininkais.
Prieš dvi savaites „Amazon“ priklausanti durų skambučių kamerų gamintoja „Ring“ sukėlė platų pasipiktinimą, kai parodė „Super Bowl“ reklamą, kurioje demonstravo, kaip dirbtinis intelektas gali būti naudojamas ieškant dingusių šunų. Kritikai greitai pastebėjo, kad jis taip pat gali būti naudojamas viso rajono stebėjimui. Nuo to laiko bendrovė atsiprašė.
Praėjusią savaitę pasirodė žinia, kad „OpenAI“, bendrovė, kurianti „ChatGPT“, žinojo apie Britų Kolumbijos moters bendravimą su pokalbių robotu ir svarstė galimybę pranešti apie ją valdžios institucijoms likus keliems mėnesiams iki masinių šaudynių.
Nors „OpenAI“ susiduria su klausimais, ar ji turėjo būti aktyvesnė pranešdama apie tai, ką ji parašė, šis incidentas išryškino galimybę, kad dirbtinio intelekto bendrovės patirs didesnį spaudimą dalytis privačiais pokalbių žurnalais su valdžios institucijomis.
Šių antraščių centre buvo generatyvinis dirbtinis intelektas – technologija, išpopuliarinta pokalbių robotų, kurie vis labiau skverbiasi į kasdienes priemones, kurias žmonės naudoja naršydami internete, rašydami esė ir programuodami. Nuolatinis su vartotojų privatumu susijusių naujienų srautas kelia klausimų, ar dirbtinis intelektas atskleidė daugiau žmonių asmeninės informacijos nei anksčiau.
Realybė, pasak privatumo ekspertų, yra tokia, kad rizika, susijusi su duomenų dalijimusi su technologijų įmonėmis, yra maždaug tokia pati, kokia visada buvo. Beveik bet kokie duomenys, siunčiami į įmonės serverius, gali būti prieinami darbuotojams, vyriausybinėms agentūroms, teisininkams ar nusikaltėliams, kurie duomenis gavo per spragas ir saugumo pažeidimus.
Tačiau intymus pokalbių su pokalbių robotu pobūdis suteikia naują posūkį senai problemai: žmonės dalijasi daug daugiau nei anksčiau. Skirtingai nuo tradicinės žiniatinklio paieškos priemonės, pokalbių robotai kviečia žmones įvesti išsamias mintis ir tolesnius klausimus, daug aiškiau atskleisdami savo ketinimus.
„Daugeliu atvejų problemos yra tos pačios, tačiau tai yra būdas sąveikauti su technologijomis, kuris anksčiau nebuvo naudojamas“, – sakė Chrisas Gilliardas, nepriklausomas privatumo mokslininkas Detroite. „Kai taip nutinka, žmonės turi būti perprogramuoti, kad suprastų, kokios grėsmės kyla.“ ir žalos yra.“
Tai pamoka, kurią interneto vartotojai turėjo išmokti ir išmokti iš naujo. Maždaug prieš aštuonerius metus „Meta“, anksčiau žinoma kaip „Facebook“, sulaukė kritikos, kai pasirodė žinia, kad politinių konsultacijų įmonė „Cambridge Analytica“ netinkamai išsiurbė 87 milijonų „Facebook“ vartotojų duomenis.
Tai buvo lūžio taškas, privertęs žmones iš naujo apsvarstyti, ar dalytis savo asmeniniais duomenimis internete. Tačiau ši pamoka, regis, jau pamiršta pokalbių robotų eroje, į kuriuos žmonės kreipiasi pagalbos darbe, terapijoje ir net tikros draugystės.
„OpenAI“ teigė, kad suteikė žmonėms galimybę kontroliuoti, kaip naudojami jų duomenys, įskaitant galimybę naudoti laikinus pokalbius, kurie neregistruoja pokalbių „ChatGPT“ istorijoje.
(„The New York Times“ 2023 m. padavė į teismą „OpenAI“ ir „Microsoft“, apkaltindami jas autorių teisių pažeidimu, susijusiu su naujienų turiniu, susijusiu su dirbtinio intelekto sistemomis. Abi bendrovės šiuos teiginius neigė.)
„Anthropic“ teigė, kad laikėsi galiojančių įstatymų ir gali būti įpareigota dalytis informacija, kai pateikiami pagrįsti teisiniai prašymai.
Incidente, susijusiame su Jesse Van Rootselaar, moteris, kuri Britų Kolumbijoje įsikūrusios valdžios institucijos, identifikuota, kaip šaulė, „OpenAI“ pranešė, kad birželį užblokavo jos paskyrą, kai jos žinutės „ChatGPT“ sistemoje automatiškai inicijavo vidinį patikrinimą, kurio metu buvo atlikti ir darbuotojų tyrimai. Bendrovė teigė, kad nusprendė nesidalinti informacija su teisėsauga, nustačiusi, kad nėra jokių įrodymų apie neišvengiamą naudotojo planą.
„Privatumo apsauga ir saugumas „ChatGPT“ sistemoje yra svarbūs, ir mes teikiame pirmenybę saugumui, kai yra patikimas ir neišvengiamas realaus pasaulio žalos planavimas“, – teigiama „OpenAI“ pareiškime. „Mūsų automatizuotos sistemos perkelia kritines situacijas, tokias kaip grėsmė gyvybei ar rimta žala kitiems, į ribotą žmonių peržiūrą, kad būtų imtasi būtinų veiksmų.“
Nors nieko nuostabaus, kad „OpenAI“, kaip ir daugelis įmonių, turėjo sistemą, skirtą stebėti piktnaudžiavimą savo paslauga, šis incidentas greičiausiai sukels diskusijas tarp teisės ekspertų apie tai, ar dirbtinio intelekto įmonės turėtų būti laikomos atsakingomis už vartotojų pokalbius su pokalbių robotais ir kada būtina dalytis duomenimis su teisėsauga, teigė Jennifer Granick, Amerikos pilietinių laisvių sąjungos teisininkė, daugiausia dėmesio skirianti stebėjimui ir kibernetiniam saugumui.
Ryšių padorumo įstatymo 230 skirsnis paprastai apsaugo interneto įmones nuo atsakomybės už vartotojų paskelbtą turinį tokiose svetainėse kaip „Facebook“, tačiau neaišku, ar ši politika turėtų būti panašiai taikoma ir pokalbių robotams, nes pokalbiai skiriasi nuo įrašų platformose, pridūrė ponia Granick.
„Mes pradėsime matyti daugiau teisminių ginčų, siekiant tai išplėtoti iki tokio lygio, kai suprantame, kaip atrodo pareiga pranešti teisėsaugai“, – sakė ji.
Istorija, susijusi su „Anthropic“ pokalbių robotu „Claude“, iliustruoja, kaip gali kilti painiava, kai žmonės komercinį pokalbių robotą laiko užrašų darytoju ir tyrimo įrankiu. Federalinis teisėjas nusprendė, kad prokurorai gali turėti prieigą prie vyro, kaltinamo elektroniniu sukčiavimu, kuris kalbėjosi su Claude'u, ruošdamasis pokalbiui su advokatais, stenogramų. Teisėjo argumentas buvo tas, kad Claude'as nebuvo advokatas ir todėl nebuvo apsaugotas advokato ir kliento konfidencialumo. Teisėjo sprendimas sukėlė advokatų pasipiktinimą visoje šalyje, nes jis pabrėžė galimus dirbtinio intelekto naudojimo pavojus, palyginti su senesniais įrankiais.
Priešingai, jei atsakovas užsirašydavo pastabas ir pasidalydavo atmintine tik su advokatu, tai galėtų būti apsaugota advokato ir kliento konfidencialumo, sakė Laura Riposo VanDruff, advokatų kontoros „Kelley Drye“ partnerė, kuri specializuojasi vartotojų privatumo ir duomenų saugumo srityje. Kadangi bendravimas su pokalbių robotu saugomas įmonės serveriuose, jis gali būti teisiškai neapsaugotas.
„Anthropic“ pažymėjo, kad atsakovas, bandydamas apsaugoti savo pokalbių su Claude'u stenogramas, pateikė stenogramas tiesiogiai teismui, kai federaliniai agentai konfiskavo jo įrenginius, o tai reiškia, kad „Anthropic“ nesidalijo duomenimis.
Incidento, susijusio su „Ring“, metu bendrovės „Super Bowl“ reklamoje buvo pavaizduotas dingusio šuns savininkas, naudojantis funkciją „Search Party“, kuri naudoja dirbtinį intelektą ir vaizdus iš namų stebėjimo kamerų tinklo, kad susektų dingusį šunį. Interviu bendrovė paaiškino, kad „Ring“ kamerų savininkai turėjo sutikti dalytis informacija per „Search Party“ užklausą.
Saugumo rizika, susijusi su dirbtinio intelekto naudojimu, gali išaugti, nes įmonės siekia, kad dirbtinio intelekto asistentai taptų vadinamaisiais agentais, kuriems reikalinga prieiga prie praktiškai visų asmens duomenų kompiuteryje ar išmaniajame telefone, kad galėtų pasiūlyti pagalbą. „Google“ ir „Microsoft“ per pastaruosius dvejus metus išleido tokio tipo programinės įrangos įrankius, ir tikimasi, kad likusi technologijų pramonės dalis paseks jų pavyzdžiu.
„Google“ „Magic Cue“, programinės įrangos įrankis, išleistas bendrovės „Pixel“ išmaniesiems telefonams praėjusiais metais, gali įsigilinti į asmens el. paštą, pavyzdžiui, ieškoti skrydžio maršruto ir parašyti automatinį tekstinį pranešimą draugui, prašydamas atvykimo informacijos. „Microsoft“ agentas „Recall“, debiutavęs naujesniuose „Windows“ kompiuteriuose, darė ekrano kopijas visuose vartotojo atliekamuose darbuose, kad padėtų ieškoti svarbių failų ar vaizdo skambučio metu aptartų detalių.
Liokajus, kuris nuolat prašytų leidimo peržiūrėti duomenis iš vartotojo kalendoriaus, el. pašto, tekstinių pranešimų ir kitų programų, kad galėtų pasiūlyti pagalbą visą dieną, būtų trikdantis. Todėl kurdamos agentus, įmonės prašo leidimo turėti prieigą prie visų savo asmeninių duomenų vos vieną kartą.
Meredith Whittaker, ne pelno siekiančios organizacijos „Signal Foundation“, sukūrusios privačių pranešimų programėlę „Signal“, prezidentė, pabrėžė galimą agento neribotos prieigos prie asmens duomenų pavojų.
Ponia Whittaker teigė, kad nenumatyta pasekmė yra ta, kad konfidencialūs pranešimai, pavyzdžiui, asmens užšifruoti „Signal“ pranešimai, gali būti netyčia pažeisti per dirbtinio intelekto sistemas kenkėjiškų programų ir galiausiai nutekinti.
„Jei jie ketina veikti visapusiškai jūsų vardu, jie turi žinoti viską“, – sakė ji apie dirbtinio intelekto agentus. „Turime būti daug įžvalgesni.“ „Kur tokio tipo automatizavimas iš tikrųjų mums duoda naudos, o kur jis pernelyg pavojingas?“ [1]
1. A.I. Complicates Old Internet Privacy Risks. Chen, Brian X. New York Times (Online) New York Times Company. Feb 26, 2026.
Komentarų nėra:
Rašyti komentarą