Nový prieskum zistil, že jeden z piatich všeobecných lekárov (GP) v Spojenom kráľovstve používa nástroje AI, ako je ChatGPT, na pomoc pri každodenných úlohách, ako je navrhovanie diagnóz a písanie listov pacientom.
The výskumupublikovaná v časopise BMJ Health and Care Informatics, skúmala 1 006 praktických lekárov z celého sveta o ich používaní chatbotov AI v klinickej praxi.
Asi 20 % uviedlo, že používa generatívne nástroje AI, pričom ChatGPT je najobľúbenejší. Z tých, ktorí používajú AI, 29% uviedlo, že ju použili na generovanie dokumentácie po stretnutí s pacientom, zatiaľ čo 28% ju použilo na navrhnutie potenciálnych diagnóz.
„Tieto zistenia signalizujú, že praktickí lekári môžu získať hodnotu z týchto nástrojov, najmä s administratívnymi úlohami a na podporu klinického uvažovania,“ uviedli autori štúdie.
Nemáme potuchy, koľko dokumentov OpenAI použilo na trénovanie svojich modelov, ale určite je to viac, ako si mohol prečítať ktorýkoľvek lekár. Poskytuje rýchle, presvedčivé odpovede a veľmi ľahko sa používa, na rozdiel od manuálneho vyhľadávania výskumných prác.
Znamená to, že ChatGPT je vo všeobecnosti presný pre klinické poradenstvo? Rozhodne nie. Veľké jazykové modely (LLM), ako je ChatGPT, sú vopred vyškolené na obrovské množstvo všeobecných údajov, vďaka čomu sú flexibilnejšie, ale pochybne presné pre konkrétne lekárske úlohy.
Je ľahké ich viesť, pričom model AI má tendenciu sa prikláňať na stranu vašich predpokladov v problematicky patolízalskom správaní.
Niektorí vedci navyše uvádzajú, že ChatGPT môže byť konzervatívny alebo obozretný pri riešení chúlostivých tém, ako je sexuálne zdravie.
Ako Stephen Hughes z Anglia Ruskin University napísal v The Conservation,“Požiadal som ChatGPT o diagnostiku bolesti pri močení a výtoku z mužských pohlavných orgánov po nechránenom pohlavnom styku. Zaujalo ma, že som nedostal žiadnu odpoveď. Bolo to, ako keby sa ChatGPT začervenal nejakým zbabelým počítačovým spôsobom. Odstránenie zmienok o pohlavnom styku viedlo k tomu, že ChatGPT poskytol diferenciálnu diagnózu, ktorá zahŕňala kvapavku, čo bol stav, ktorý som mal na mysli.“
Ako povedala Dr. Charlotte Blease, vedúca autorka štúdie: „Napriek nedostatku usmernení o týchto nástrojoch a nejasných pracovných zásadách všeobecní lekári uvádzajú, že ich používajú na pomoc pri práci. Lekárska komunita bude musieť nájsť spôsoby, ako vzdelávať lekárov a školencov o potenciálnych výhodách týchto nástrojov pri sumarizácii informácií, ale aj o rizikách, pokiaľ ide o halucinácie, algoritmické zaujatosti a potenciál ohroziť súkromie pacienta.“
Ten posledný bod je kľúčový. Odovzdávanie informácií o pacientovi do systémov AI pravdepodobne predstavuje porušenie súkromia a dôvery pacienta.
Dr. Ellie Mein, medicínsko-právna poradkyňa z odboru lekárskej obrany, súhlasila s kľúčovými otázkami: „Spolu s použitiami uvedenými v dokumente BMJ sme zistili, že niektorí lekári sa obracajú na programy AI, aby pomohli navrhnúť odpovede na sťažnosti týkajúce sa ich. Upozornili sme členov MDU na problémy, ktoré to vyvoláva, vrátane nepresnosti a dôvernosti informácií o pacientoch. Existujú aj úvahy o ochrane údajov.“
Dodala: „Pri riešení sťažností pacientov môžu odpovede navrhnuté umelou inteligenciou znieť vierohodne, ale môžu obsahovať nepresnosti a odkazovať na nesprávne pokyny, ktoré je ťažké rozpoznať, keď sú zakomponované do veľmi výrečných pasáží textu. Je dôležité, aby lekári používali AI etickým spôsobom a dodržiavali príslušné usmernenia a predpisy.“
Pravdepodobne najkritickejšie otázky medzi tým všetkým sú: Ako presný je ChatGPT v lekárskom kontexte? A aké veľké môžu byť riziká nesprávnej diagnózy alebo iných problémov, ak to bude pokračovať?
Generatívna AI v lekárskej praxi
Ako praktickí lekári čoraz viac experimentujú s nástrojmi AI, výskumníci pracujú na tom, aby vyhodnotili ich porovnanie s tradičnými diagnostickými metódami.
A štúdium uverejnené v Expertné systémy s aplikáciami vykonala porovnávaciu analýzu medzi ChatGPT, konvenčnými modelmi strojového učenia a ďalšími systémami AI pre lekárske diagnózy.
Výskumníci zistili, že zatiaľ čo ChatGPT bol sľubný, bol často prekonaný tradičnými modelmi strojového učenia špeciálne vyškolenými na lekárskych súboroch údajov. Napríklad viacvrstvové perceptrónové neurónové siete dosiahli najvyššiu presnosť pri diagnostike chorôb na základe symptómov, s mierami 81 % a 94 % na dvoch rôznych súboroch údajov.
Výskumníci dospeli k záveru, že zatiaľ čo ChatGPT a podobné nástroje AI vykazujú potenciál, „ich odpovede môžu byť často nejednoznačné a vytrhnuté z kontextu, takže poskytujú nesprávne diagnózy, aj keď sa od nich požaduje poskytnutie odpovede len s ohľadom na konkrétny súbor tried“.
To je v súlade s ďalšími nedávnymi štúdiami skúmajúcimi potenciál AI v lekárskej praxi.
napr. výskumu uverejnené v JAMA Network Open testoval schopnosť GPT-4 analyzovať zložité prípady pacientov. Aj keď v niektorých oblastiach ukázal sľubné výsledky, GPT-4 stále robil chyby, z ktorých niektoré by mohli byť nebezpečné v skutočných klinických scenároch.
Existuje však niekoľko výnimiek. Jeden štúdium uskutočnené New York Eye and Ear Infirmary of Mount Sinai (NYEE) demonštrovali, ako GPT-4 môže splniť alebo prekonať ľudských oftalmológov pri diagnostike a liečbe očných chorôb.
Pri glaukóme GPT-4 poskytoval vysoko presné a podrobné odpovede, ktoré prevyšovali odpovede skutočných očných špecialistov.
Vývojári AI, ako sú OpenAI a NVIDIA, školia účelových lekárskych asistentov AI na podporu lekárov, dúfajme, že vykompenzujú nedostatky základných modelov, ako je GP-4.
OpenAI už nadviazala partnerstvo s zdravotnícka technologická spoločnosť Color Health vytvoriť „kopilota“ AI pre starostlivosť o rakovinu, ktorý demonštruje, ako sú tieto nástroje nastavené tak, aby sa stali špecifickejšími pre klinickú prax.
Zváženie výhod a rizík
Existuje nespočetné množstvo štúdií, ktoré porovnávajú špeciálne trénované modely AI s ľuďmi pri identifikácii chorôb z diagnostických snímok, ako sú MRI a röntgen.
Techniky AI prekonali lekárov vo všetkom od rakovina a diagnostiku očných chorôb Alzheimerova choroba a Včasná detekcia Parkinsonovej choroby. Jedna s názvom „Mia“ sa ukázala ako účinná pri analýze viac ako 10 000 mamografických skenov, pri označovaní známych prípadov rakoviny a pri odhaľovaní rakoviny u 11 žien, ktoré lekári prehliadli.
Tieto účelové nástroje AI však určite nie sú rovnaké ako analyzovať poznámky a zistenia do jazykového modelu, ako je ChatGPT, a požiadať ho, aby z toho vyvodil diagnózu.
Napriek tomu je ťažké odolať pokušeniu. Nie je žiadnym tajomstvom, že zdravotnícke služby sú preťažené. Čakacie doby NHS naďalej stúpajú na historické maximá a dokonca aj získanie návštev u praktického lekára v niektorých oblastiach je pochmúrnou úlohou.
Nástroje AI sa zameriavajú na časovo náročných správcov, čo je ich lákadlom pre preťažených lekárov. Videli sme, že sa to odzrkadľuje v mnohých oblastiach verejného sektora, ako je napríklad vzdelávanie, kde učitelia vo veľkej miere využívajú AI na vytváranie materiálov, známkovanie práce a ďalšie.
Takže, bude váš lekár analyzovať vaše poznámky do ChatGPT a napíše vám recept na základe výsledkov pre vašu ďalšiu návštevu lekára? Dosť možno. Je to len ďalšia hranica, pri ktorej je ťažké poprieť prísľub technológie na úsporu času.
Najlepšou cestou vpred môže byť vytvorenie kódexu používania. Britská lekárska asociácia vyzvala na jasné pravidlá integrácie AI do klinickej praxe.
„Lekárska komunita bude musieť nájsť spôsoby, ako vzdelávať lekárov aj školených ľudí a viesť pacientov k bezpečnému prijatiu týchto nástrojov,“ uzavreli autori štúdie BMJ.
Okrem poradenstva a vzdelávania bude dôležitý neustály výskum, jasné usmernenia a záväzok k bezpečnosti pacientov, aby sme si uvedomili výhody AI a zároveň kompenzovali riziká.