in

Fastleger tar i bruk ChatGPT for diagnoser og dokumentasjon

En ny undersøkelse blant fastleger i Storbritannia viser at én av fem leger tar i bruk kunstig intelligens-verktøy som ChatGPT for å håndtere daglige oppgaver som å foreslå diagnoser og skrive pasientbrev. Dette fremkommer i forskning publisert i tidsskriftet BMJ Health and Care Informatics, der 1 006 fastleger ble spurt om bruken av AI-chatboter i klinisk praksis.

Økende bruk av kunstig intelligens i helsevesenet

Av de som rapporterte å bruke AI-verktøy, oppga 29 % at de brukte teknologien til å generere dokumentasjon etter pasientmøter, mens 28 % benyttet den for å foreslå mulige diagnoser. ChatGPT var det mest populære verktøyet blant de ulike AI-løsningene.

Forskere som står bak studien påpeker at disse funnene indikerer at leger kan finne nytte i slike verktøy, spesielt for administrative oppgaver og for å støtte klinisk resonnement. Samtidig reises det spørsmål om hvor nøyaktig ChatGPT faktisk er i en medisinsk sammenheng.

Risikoer knyttet til nøyaktighet og personvern

Selv om AI-modeller som ChatGPT kan gi overbevisende svar, understrekes det at modellene er trent på et bredt spekter av generell informasjon, og kan derfor komme opp med tvilsomme resultater innen spesifikke fagområder som medisin. “Vi har ingen anelse om hvor mange artikler OpenAI brukte for å trene modellene sine, men det er definitivt flere enn noen lege kunne ha lest,” skriver dailyai.com.

En utfordring med slike store språkmodeller (LLM) er hvordan de kan tendere til å støtte brukerens antakelser, noe som kan lede til feilaktige diagnoser. Dette gjelder spesielt innen sensitive temaer som seksuell helse, der noen forskere har bemerket at ChatGPT kan være tilbakeholden eller preget av algoritmiske skjevheter.

Fordeler og utfordringer

Til tross for manglende retningslinjer og usikre arbeidspraksiser rundt bruk av AI i helsevesenet, rapporterer fastleger at de bruker slike verktøy for å lette arbeidsmengden. Dr. Charlotte Blease, hovedforfatter av studien, understreker at videre opplæring og retningslinjer må på plass for å veie fordelene mot risikoene forbundet med AI-verktøy, spesielt med tanke på feilinformasjon og utfordringer knyttet til personvern.

Etiske hensyn og korrekt bruk

Dr. Ellie Mein, medisinsk-rådgiver ved Medical Defence Union, advarer også leger mot å bruke AI til å skrive pasientklager. Selv om svarene kan virke plausible, kan de inneholde feil som er vanskelige å oppdage. For å beskytte pasienter og sikre riktige beslutninger presiserer Mein at leger må bruke AI på en etisk måte og følge relevante retningslinjer.

Fremtiden for AI i helsevesenet

Spørsmålet mange nå stiller seg er: Hvor presis er ChatGPT i en medisinsk sammenheng, og hvor store kan risikoene være for feildiagnostisering? Forskning har vist at andre spesifikke maskinlæringsmodeller kan utkonkurrere ChatGPT når det gjelder nøyaktige medisinske diagnoser. En studie publisert i Expert Systems with Applications sammenlignet ChatGPT med tradisjonelle maskinlæringsmodeller og andre AI-systemer, og tradisjonelle metoder oppnådde bedre nøyaktighet.

Derimot viste en annen studie utført ved New York Eye and Ear Infirmary at GPT-4 kunne være mer presis enn mennesker i visse tilfeller, slik som diagnoser knyttet til øyesykdommer. Dette fremhever nødvendigheten av målrettet AI-trening for spesifikke områder.

Veien videre for AI i klinisk praksis

AI-verktøy som ChatGPT har utvilsomt potensiale for å lette det administrative arbeidet blant leger, og kan brukes som et hjelpemiddel for å støtte beslutningsprosesser. Slik teknologi kan også utjevne presset i et overbelastet helsevesen, der mange sliter med lange ventetider og store arbeidsbyrder.

Imidlertid understreker forskere behovet for å utvikle klare retningslinjer for etisk og sikker bruk av slike verktøy i klinisk praksis. Den britiske legeforeningen har allerede bedt om slike retningslinjer for snart å implementere AI-teknologi på en trygg måte, både for leger og pasienter.