Pavojus ar medicininė pagalba? Atskleidė, ar verta pasitikėti „ChatGPT Health“

7 min. skaitymo

Šimtams milijonų žmonių vis dažniau kreipiantis patarimų į pokalbių robotus, buvo tik laiko klausimas, kada technologijų bendrovės pradės siūlyti specialiai sveikatos klausimams skirtas programas.

2026 m. sausį „OpenAI“ pristatė „ChatGPT Health“ – naują savo pokalbių roboto versiją, kuri, kaip teigia bendrovė, gali analizuoti naudotojų medicininius įrašus, sveikatos programėlių ir išmaniųjų dėvimų įrenginių duomenis ir taip atsakyti į klausimus apie sveikatą bei mediciną.

Šiuo metu į šią programą galima patekti tik užsiregistravus į laukiančiųjų sąrašą. Konkurentė dirbtinio intelekto bendrovė „Anthropic“ panašias funkcijas siūlo daliai savo roboto „Claude“ naudotojų.

Abi bendrovės pabrėžia, kad jų programos – vadinamieji didieji kalbos modeliai – neatstoja profesionalios medicininės priežiūros ir neturėtų būti naudojamos diagnozuoti ligoms. Jos turėtų būti pasitelkiamos kaip priemonė sudėtingiems tyrimų rezultatams apibendrinti ir paaiškinti, padėti pasirengti vizitui pas gydytoją ar analizuoti svarbias sveikatos tendencijas, „paslėptas“ medicininiuose įrašuose ir programėlių rodikliuose.

Prieš pradėdami kalbėtis su pokalbių robotu apie savo sveikatą, verta įvertinti kelis svarbius dalykus.

Pokalbių robotai gali pateikti labiau suasmenintą informaciją nei „Google“

Dalis gydytojų ir tyrėjų, dirbusių su „ChatGPT Health“ ir panašiomis programomis, mano, kad tokie įrankiai yra žingsnis į priekį lyginant su dabartine situacija.

Dirbtinio intelekto platformos nėra tobulos – jos kartais „halucionuoja“ arba pateikia prastus patarimus, – tačiau jų generuojama informacija dažnai būna labiau suasmeninta ir konkretesnė nei ta, kurią pacientai paprastai randa atlikę paiešką „Google“ sistemoje.

„Alternatyva dažnai būna jokia pagalba arba paciento „spėliojimas“, – sako medicinos technologijų ekspertas, Kalifornijos universiteto San Franciske profesorius dr. Robertas Wachteris. – „Jei šie įrankiai naudojami atsakingai, jie gali padėti gauti naudingos informacijos.“

person using MacBook Pro

Viena didžiausių naujausių pokalbių robotų stiprybių – gebėjimas atsakyti į naudotojų klausimus atsižvelgiant į jų medicininę istoriją: vartojamus vaistus, amžių, gydytojų pastabas ir pan.

Net jei nesuteikėte dirbtiniam intelektui prieigos prie savo medicininių duomenų, Wachteris ir kiti ekspertai rekomenduoja, klausiant pateikti kaip įmanoma daugiau svarbių detalių – tai pagerina atsakymų kokybę.

Jei simptomai kelia nerimą, verčiau nesikreipkite į dirbtinį intelektą

Wachteris ir kiti pabrėžia, kad yra situacijų, kai pokalbių roboto reikia atsisakyti ir nedelsiant kreiptis į medikus. Tokie simptomai kaip dusulys, krūtinės skausmas ar stiprus galvos skausmas gali būti neatidėliotinos medicininės pagalbos ženklas.

Net ir mažiau skubiais atvejais pacientai ir gydytojai, naudodamiesi dirbtiniu intelektu, turėtų išlaikyti „sveiką skepticizmą“, teigia Stenfordo universiteto medicinos mokyklos dekanas dr. Lloydas Minoras.

„Kalbant apie svarbius medicininius sprendimus, o neretai ir dėl mažesnių sprendimų, susijusių su jūsų sveikata, niekada nereikėtų remtis vien tik didžiojo kalbos modelio pateikta informacija“, – įspėja jis.

Prieš įkeldami sveikatos duomenis, įvertinkite privatumą

Daugelis dirbtinio intelekto pokalbių robotų teikiamų privalumų atsiranda tik tada, kai naudotojai pasidalija asmenine medicinine informacija. Tačiau būtina suprasti, kad visa, ką pateikiate tokiai technologijų bendrovei, nėra saugoma pagal JAV federalinį sveikatos duomenų privatumo įstatymą, kuris paprastai reglamentuoja jautrius medicininius duomenis.

Šis teisės aktas, dažniausiai vadinamas HIPAA, numato baudas ir net laisvės atėmimo bausmes gydytojams, ligoninėms, draudikams ir kitoms sveikatos paslaugų įstaigoms, neteisėtai atskleidusioms medicininius įrašus. Tačiau jis netaikomas dirbtinio intelekto pokalbių robotus kuriančioms bendrovėms.

„Kai žmogus įkelia savo medicininę kortelę į didįjį kalbos modelį, tai visiškai kas kita nei perduoti ją naujam gydytojui“, – pabrėžia Minoras. – „Vartotojai turi suprasti, kad taikomi visiškai skirtingi privatumo standartai.“

„OpenAI“ ir „Anthropic“ teigia, kad naudotojų sveikatos informacija yra laikoma atskirai nuo kitų tipų duomenų ir jai taikomos papildomos privatumo apsaugos. Šios bendrovės nenaudoja sveikatos duomenų savo modeliams mokyti. Naudotojai turi patys išreikšti sutikimą dalintis tokia informacija ir bet kada gali šį susiejimą nutraukti.

Tyrimai rodo, kad pokalbių robotai vis dar klysta

Nors aplink dirbtinį intelektą tvyro didelis entuziazmas, nepriklausomi šios technologijos veikimo tyrimai dar tik pradiniame etape. Ankstyvieji darbai rodo, kad tokios programos kaip „ChatGPT“ puikiai atlieka aukšto lygio medicininius testus, tačiau dažnai susiduria su sunkumais bendraudamos su realiais žmonėmis.

a person holding a cell phone in their hand

Oksfordo universiteto atliktas 1300 dalyvių tyrimas atskleidė, jog žmonės, naudodamiesi AI pokalbių robotais ir bandydami išsiaiškinti hipotetines sveikatos būkles, nepriėmė geresnių sprendimų nei tie, kurie naudojosi paieška internete arba savo pačių nuojauta.

Dirbtinio intelekto sistemos, gavusios aiškiai ir išsamiai aprašytus medicininius atvejus, teisingai nustatė pagrindinę sveikatos problemą 95 proc. atvejų.

„Tai nebuvo problema“, – sako pagrindinis tyrimo autorius, Oksfordo interneto instituto mokslininkas Adamas Mahdi. – „Viskas ėmė strigti tuomet, kai atsirado reali sąveika su dalyviais.“

Mahdi ir jo komanda nustatė kelias bendravimo problemas. Žmonės dažnai nepateikdavo pokalbių robotams pakankamai informacijos, kad šie galėtų teisingai atpažinti sveikatos sutrikimą. Kita vertus, AI sistemos neretai pateikdavo gerų ir klaidinančių patarimų mišinį, o vartotojams būdavo sudėtinga atskirti, kas yra kas.

Šis 2024 m. atliktas tyrimas dar nenaudojo naujausių dirbtinio intelekto versijų, įskaitant naujas paslaugas, tokias kaip „ChatGPT Health“.

Antroji AI nuomonė gali būti naudinga

Galimybė pokalbių robotams užduoti papildomus klausimus ir išgauti iš naudotojų esmines detales – viena iš sričių, kur Wachteris mato didžiausią tobulėjimo potencialą.

„Manau, kad šie įrankiai taps tikrai geri tada, kai juose atsiras daugiau „gydytojiško“ bendravimo – kai jie pradės labiau priminti gyvą dialogą su pacientu“, – svarsto jis.

Kol kas vienas iš būdų labiau pasitikėti gaunama informacija – pasitikrinti ją keliais skirtingais pokalbių robotais, panašiai kaip kreipiantis dėl antros gydytojo nuomonės.

„Kartais tuos pačius duomenis įvedu į „ChatGPT“ ir į „Gemini“, – pasakoja Wachteris, turėdamas omenyje ir „Google“ dirbtinio intelekto įrankį. – „Jei abu pateikia tą patį atsakymą, jaučiuosi šiek tiek labiau užtikrintas, kad tai teisinga informacija.“

Dalintis straipsniu
Komentarų: 0

Parašykite komentarą

El. pašto adresas nebus skelbiamas. Būtini laukeliai pažymėti *

Rekomenduojami Video