„Mollie Kerr, 26 metų niujorkietė, gyvenanti Londone, šią vasarą buvo sukrėsta, kai jos kraujo tyrimai parodė hormonų disbalansą.
Pamačiusi rezultatus savo pacientų portale, ji per daug išsigando, kad galėtų laukti pokalbio su gydytoju. Taigi, šiek tiek neramiai, ji įkėlė visą ataskaitą į „ChatGPT“. Pokalbių robotas jai pasakė, kad jos laboratoriniai rezultatai gali rodyti keletą ligų, tačiau „greičiausiai“ jie rodo hipofizės auglį arba retą būklę, susijusią su hipofizės augliais.
Pokalbių roboto spėjimai nebuvo atmesti – ponios Kerr gydytojas sutiko atlikti MRT tyrimą, kad patikrintų, – tačiau jie buvo klaidingi. Auglys nebuvo aptiktas.
Kitas pacientas, 63 metų Elliot Royce, patyrė kitokią patirtį, įkėlęs penkerių metų savo medicininius įrašus į „ChatGPT“, įskaitant sudėtingos širdies ligos ir praeities širdies priepuolio dokumentus.
Jis pradėjo jaustis nepatogiau sportuodamas, o tyrimas parodė iš dalies užsikimšusią arteriją. Jo gydytojas manė, kad kol kas pakaks atidžiai stebėti. Tačiau, remdamasis „ChatGPT“ patarimu p. Royce'as siekė invazyvesnės diagnostinės procedūros, kuri atskleidė 85 procentų užsikimšimą – rimtą problemą, kuri buvo išspręsta stentu.
Visame pasaulyje milijonai žmonių naudojasi pokalbių robotais, kad geriau suprastų savo sveikatą. Kai kurie, pavyzdžiui, ponia Kerr ir p. Royce'as, neapsiriboja vien medicininiais klausimais. Jie ir daugiau nei tuzinas kitų, kalbėjusių su „The New York Times“, pokalbių robotams perdavė laboratorinių tyrimų rezultatus, medicininius vaizdus, gydytojų pažymas, chirurgines ataskaitas ir kt.
Netiksli informacija kelia didelį susirūpinimą; kai kurie tyrimai parodė, kad žmonės, neturintys medicininio išsilavinimo, rečiau nei pusę laiko gauna teisingas diagnozes iš pokalbių robotų. O įkeliant neskelbtinus duomenis kyla privatumo rizika mainais už atsakymus, kurie gali atrodyti labiau suasmeninti.
Dr. Danielle Bitterman, Harvardo medicinos mokyklos docentė, tyrinėjanti dirbtinį intelektą, teigė, kad nesaugu manyti, jog pokalbių robotas suasmenina savo tyrimų rezultatų analizę. Jos tyrimai parodė, kad pokalbių robotai gali siūlyti labiau pritaikomus atsakymus, net kai pateikiamas kontekstas konkrečiais klausimais. pacientų.
„Vien dėl to, kad pateikiate visą šią informaciją kalbos modeliams, – sakė ji, – dar nereiškia, kad jie veiksmingai naudoja tą informaciją taip pat, kaip tai darytų gydytojas.“
Kai žmonės įkelia tokio tipo duomenis, jie turi ribotą kontrolę, kaip jie naudojami.
HIPAA, federalinis sveikatos privatumo įstatymas, netaikomas populiarių pokalbių robotų kūrėjams. Teisiškai, pasak Vanderbilto universiteto medicinos centro biomedicinos informatikos profesoriaus Bradley Malino, „iš esmės jūs atsisakote bet kokių teisių, susijusių su medicininiu privatumu“, palikdami tik tą apsaugą, kurią pasirenka pasiūlyti konkreti įmonė.
„ChatGPT“ kūrėja „OpenAI“ teigė, kad turi išsamias apsaugos priemones savo vartotojų privačiai informacijai apsaugoti.
Atstovė pažymėjo, kad vartotojai gali atsisakyti, kad jų pokalbiai būtų naudojami būsimiems modeliams mokyti, ir teigė, kad bendrovė išbandė savo sistemas nuo imituojamų atakų. Ji taip pat dalijasi minimaliais duomenimis su trečiųjų šalių paslaugų teikėjais.
(„The Times“ padavė „OpenAI“ į teismą, teigdama, kad pažeidžiamos naujienų turinio autorių teisės. „OpenAI“ šiuos teiginius neigė.)
Nepaisant to, duomenų privatumo ekspertai teigė, kad medicininės informacijos įkėlimas į bet kurį pokalbių robotą kelia pavojų – tiek dėl to, kad skirtingų pokalbių robotų politika skiriasi, tiek dėl to, kad labai sunku pašalinti visas. pažeidžiamumus.
Viena problema yra ta, kad daugelis žmonių neatsisako perduoti savo duomenis mokymo tikslais. Tai sukuria galimybę, kad jei vienas asmuo įkels medicininius duomenis, o kažkas kitas paklaus būsimo modelio apie tą asmenį, pokalbių robotas „gali netyčia nutekinti labai slaptą informaciją“, – sakė Karni Chagal-Feferkorn, Pietų Floridos universiteto Bellini dirbtinio intelekto, kibernetinio saugumo ir skaičiavimo koledžo docentė.
„OpenAI“ teigia, kad ji siekia „sumažinti“ šią galimybę, o atstovė teigė, kad „ChatGPT“ buvo apmokyta nežinoti ir neatskleisti tokios informacijos. Tačiau duomenų privatumo ekspertai vis dar laiko scenarijų tikėtinu.
„Jų veiksmai tikrai sumažina riziką, bet nėra ir greičiausiai negali būti atsparūs“, – sakė dr. Chagal-Feferkorn. „Nebijokite technologijos, bet būkite labai atidūs rizikai“, – pridūrė ji.
Keletas pacientų teigė, kad prieš dalydamiesi savo įrašais su pokalbių robotais, jie redagavo savo vardus ir išvalė metaduomenis, tačiau to gali nepakakti. Pakankamai išsami informacija kartais gali būti susieta su asmenimis, net jei vardai ir pavardės nėra pridėti, sakė ji. Dr. Rainu Kaushal, Weill Cornell medicinos ir Niujorko presbiterionų universiteto gyventojų sveikatos mokslų katedros vedėjas.
Sveikatos informacijos nutekėjimo pasekmės gali būti rimtos. Pavyzdžiui, nors daugumai darbdavių draudžiama diskriminuoti neįgaliuosius, tai nėra neįprasta.
Tačiau dauguma su „The Times“ kalbėjusių žmonių teigė, kad jie nebuvo susirūpinę.
„Mano mobilusis telefonas seka mane visur, kur einu“, – sakė 88 metų Robertas Gebhardtas, kuris prašo „ChatGPT“ įvertinti jo simptomų skubumą ir vaistų tinkamumą, atsižvelgiant į 15 metų medicininius įrašus, kuriuos jis įkėlė. „Kiekvienas, norintis ką nors sužinoti apie mane, gali tai sužinoti, įskaitant mano medicininius duomenis. Tai gyvenimo faktas, ir aš su tuo susitaikiau.“
53 metų Stephanie Landa į „ChatGPT“ įveda tyrimų rezultatus nuo tada, kai praėjusiais metais jai buvo diagnozuotas metastazinis apendicito vėžys. Ji vertina tai, kad „ChatGPT“ gali greitai peržiūrėti savo rezultatus, galbūt ypač tada, kai jie yra pražūtingi, pavyzdžiui, kai jie parodė, kad vėžys išplito po visą jos pilvą. Ji teigė, kad jei ji apdoroja blogas naujienas prieš vizitą pas gydytoją, gali efektyviau išnaudoti vizito laiką.
Kurį laiką ji kruopščiai redagavo identifikuojančią informaciją. Tačiau tada ji nusprendė, kad, atsižvelgiant į agresyvaus vėžio prognozę, jai tai iš tikrųjų nerūpi.
Kalbant apie ponią Kerr, moterį, kuri neturėjo hipofizės naviko, endokrinologas negalėjo padėti, atmetęs naviko galimybę, sakė ji, o jos šeimos gydytojas negalėjo išspręsti paslapties.
Todėl ji grįžo į „ChatGPT“, kad gautų naujų diagnostikos pasiūlymų ir mitybos patarimų, kai kurie iš jų, jos manymu, buvo naudingi.
„Žinau, kad tai jautri informacija“, – sakė ji. „Tačiau jaučiu, kad negaunu jokių atsakymų iš niekur kitur.“ [1]
1. People Are Uploading Their Medical Records to A.I. Chatbots. Astor, Maggie. New York Times (Online) New York Times Company. Dec 3, 2025.
Komentarų nėra:
Rašyti komentarą