Podľa novej štúdie etické usmernenia očividne chýbajú, keďže AI pokračuje v transformácii zdravotnej starostlivosti, od objavovania liekov až po analýzu medicínskeho zobrazovania.
The štúdium Joschka Haltaufderheide a Robert Ranisch z Potsdamskej univerzity, publikovaná v njp Digital Communications, analyzovala 53 článkov s cieľom zmapovať etické prostredie obklopujúce veľké jazykové modely (LLM) v medicíne a zdravotníctve.
Zistilo sa, že AI sa už používa v rôznych oblastiach zdravotnej starostlivosti vrátane:
- Interpretácia diagnostického zobrazovania
- Vývoj a objavovanie liekov
- Personalizované plánovanie liečby
- Triedenie pacientov a hodnotenie rizika
- Lekársky výskum a analýza literatúry
Nedávne vplyvy AI na zdravotnú starostlivosť a medicínu nie sú nič iné ako veľkolepé.
len nedávno, výskumníci vytvorili model na včasnú detekciu Alzheimerovej choroby, ktorá dokáže s presnosťou 80 % predpovedať, či niekomu bude táto choroba diagnostikovaná do šiestich rokov.
Prvý Lieky generované AI už smerujú do klinických skúšok a Krvné testy poháňané AI dokáže odhaliť rakovinu z jednotlivých molekúl DNA.
Z hľadiska LLM, OpenAI a Color Health nedávno oznámil systém na pomoc lekárom s diagnostikou a liečbou rakoviny.
Aj keď sú tieto pokroky úžasné, vytvárajú pocit závratu. Mohli by sa riziká dostať pod radar?
Pri konkrétnom pohľade na LLM výskumníci uvádzajú: „So zavedením ChatGPT sa veľkým jazykovým modelom (LLM) venuje v zdravotníctve obrovská pozornosť. Napriek potenciálnym výhodám výskumníci zdôraznili rôzne etické dôsledky.“
Na strane výhod: „Výhody používania LLM sa pripisujú ich kapacite pri analýze údajov, poskytovaní informácií, podpore pri rozhodovaní alebo pri zmierňovaní straty informácií a zlepšovaní dostupnosti informácií.“
Zdôrazňujú však aj hlavné etické obavy: „Naša štúdia tiež identifikuje opakujúce sa etické obavy súvisiace so spravodlivosťou, zaujatosťou, nezneškodňovaním, transparentnosťou a súkromím. Výrazným problémom je tendencia vytvárať škodlivý alebo presvedčivý, ale nepresný obsah.“
Tento problém „halucinácií“, kde LLM vytvárajú pravdepodobné, ale fakticky nesprávne informácie, je obzvlášť znepokojujúca v kontexte zdravotnej starostlivosti. V najhorších prípadoch môže viesť k nesprávnej diagnóze alebo liečbe.
Vývojári AI často nevedia vysvetliť, ako fungujú ich modely, známe ako „problém čiernej skrinky“, takže oprava tohto chybného správania je mimoriadne náročná.
Štúdia vyvoláva alarmujúce obavy o zaujatosti v LLMpričom poznamenáva: „Zaujaté modely môžu viesť k nespravodlivému zaobchádzaniu so znevýhodnenými skupinami, čo vedie k rozdielom v prístupe, prehlbovaniu existujúcich nerovností alebo poškodzovaniu osôb prostredníctvom selektívnej presnosti.“
Citujú konkrétny príklad ChatGPT a Foresight NLP, ktoré ukazujú rasovú zaujatosť voči čiernym pacientom. A nedávna štúdia Yale zistili rasovú zaujatosť v zaobchádzaní ChatGPT s rádiografickými snímkami, keď dostali rasové informácie o skenoch.
Zaujatosť LLM voči menšinovým skupinám je dobre známa a môže mať v kontexte zdravotnej starostlivosti zákerné následky.
Ďalším rizikom sú obavy o súkromie: „Spracovanie údajov pacientov vyvoláva etické otázky týkajúce sa dôvernosti, súkromia a bezpečnosti údajov.“
Z hľadiska riešenia rizík je prvoradý ľudský dohľad. Výskumníci tiež vyzývajú na vypracovanie univerzálnych etických usmernení pre umelú inteligenciu v oblasti zdravotnej starostlivosti, aby sa zabránilo vzniku škodlivých scenárov.
Etické prostredie AI v zdravotníctve sa rýchlo rozširuje, pretože sa neustále valia objavy.
Nedávno spustilo viac ako 100 popredných vedcov dobrovoľnú iniciatívu zameranú na bezpečnosť pravidlá pre dizajn proteínov AI, zdôrazňujúc, že technológia sa často pohybuje príliš rýchlo, aby bezpečnosť udržala tempo.