Home Umela inteligencia Vedci naliehajú na etické usmernenia, pretože LLM zohrávajú širšiu úlohu v zdravotnej starostlivosti

Vedci naliehajú na etické usmernenia, pretože LLM zohrávajú širšiu úlohu v zdravotnej starostlivosti

by
ethics

Podľa novej štúdie etické usmernenia očividne chýbajú, keďže AI pokračuje v transformácii zdravotnej starostlivosti, od objavovania liekov až po analýzu medicínskeho zobrazovania.

The štúdium Joschka Haltaufderheide a Robert Ranisch z Potsdamskej univerzity, publikovaná v njp Digital Communications, analyzovala 53 článkov s cieľom zmapovať etické prostredie obklopujúce veľké jazykové modely (LLM) v medicíne a zdravotníctve.

Zistilo sa, že AI sa už používa v rôznych oblastiach zdravotnej starostlivosti vrátane:

  • Interpretácia diagnostického zobrazovania
  • Vývoj a objavovanie liekov
  • Personalizované plánovanie liečby
  • Triedenie pacientov a hodnotenie rizika
  • Lekársky výskum a analýza literatúry

Nedávne vplyvy AI na zdravotnú starostlivosť a medicínu nie sú nič iné ako veľkolepé.

len nedávno, výskumníci vytvorili model na včasnú detekciu Alzheimerovej choroby, ktorá dokáže s presnosťou 80 % predpovedať, či niekomu bude táto choroba diagnostikovaná do šiestich rokov.

Prvý Lieky generované AI už smerujú do klinických skúšok a Krvné testy poháňané AI dokáže odhaliť rakovinu z jednotlivých molekúl DNA.

Z hľadiska LLM, OpenAI a Color Health nedávno oznámil systém na pomoc lekárom s diagnostikou a liečbou rakoviny.

Aj keď sú tieto pokroky úžasné, vytvárajú pocit závratu. Mohli by sa riziká dostať pod radar?

Pri konkrétnom pohľade na LLM výskumníci uvádzajú: „So zavedením ChatGPT sa veľkým jazykovým modelom (LLM) venuje v zdravotníctve obrovská pozornosť. Napriek potenciálnym výhodám výskumníci zdôraznili rôzne etické dôsledky.“

Na strane výhod: „Výhody používania LLM sa pripisujú ich kapacite pri analýze údajov, poskytovaní informácií, podpore pri rozhodovaní alebo pri zmierňovaní straty informácií a zlepšovaní dostupnosti informácií.“

Zdôrazňujú však aj hlavné etické obavy: „Naša štúdia tiež identifikuje opakujúce sa etické obavy súvisiace so spravodlivosťou, zaujatosťou, nezneškodňovaním, transparentnosťou a súkromím. Výrazným problémom je tendencia vytvárať škodlivý alebo presvedčivý, ale nepresný obsah.“

Tento problém „halucinácií“, kde LLM vytvárajú pravdepodobné, ale fakticky nesprávne informácie, je obzvlášť znepokojujúca v kontexte zdravotnej starostlivosti. V najhorších prípadoch môže viesť k nesprávnej diagnóze alebo liečbe.

Vývojári AI často nevedia vysvetliť, ako fungujú ich modely, známe ako „problém čiernej skrinky“, takže oprava tohto chybného správania je mimoriadne náročná.

Štúdia vyvoláva alarmujúce obavy o zaujatosti v LLMpričom poznamenáva: „Zaujaté modely môžu viesť k nespravodlivému zaobchádzaniu so znevýhodnenými skupinami, čo vedie k rozdielom v prístupe, prehlbovaniu existujúcich nerovností alebo poškodzovaniu osôb prostredníctvom selektívnej presnosti.“

Citujú konkrétny príklad ChatGPT a Foresight NLP, ktoré ukazujú rasovú zaujatosť voči čiernym pacientom. A nedávna štúdia Yale zistili rasovú zaujatosť v zaobchádzaní ChatGPT s rádiografickými snímkami, keď dostali rasové informácie o skenoch.

Zaujatosť LLM voči menšinovým skupinám je dobre známa a môže mať v kontexte zdravotnej starostlivosti zákerné následky.

Ďalším rizikom sú obavy o súkromie: „Spracovanie údajov pacientov vyvoláva etické otázky týkajúce sa dôvernosti, súkromia a bezpečnosti údajov.“

Z hľadiska riešenia rizík je prvoradý ľudský dohľad. Výskumníci tiež vyzývajú na vypracovanie univerzálnych etických usmernení pre umelú inteligenciu v oblasti zdravotnej starostlivosti, aby sa zabránilo vzniku škodlivých scenárov.

Etické prostredie AI v zdravotníctve sa rýchlo rozširuje, pretože sa neustále valia objavy.

Nedávno spustilo viac ako 100 popredných vedcov dobrovoľnú iniciatívu zameranú na bezpečnosť pravidlá pre dizajn proteínov AI, zdôrazňujúc, že ​​technológia sa často pohybuje príliš rýchlo, aby bezpečnosť udržala tempo.

Source Link

Related Posts

Leave a Comment