Doktorer använder AI för att lära sig kommunicera bättre med patienter


Den 30 november förra året släppte OpenAI den första gratisversionen av ChatGPT. Inom 72 timmar använde läkare denna chattbot som drivs av artificiell intelligens.

”Jag var både upphetsad och förbluffad men, ärligt talat, lite oroad”, sa Peter Lee, företagets vice president för forskning och inkubation på Microsoft, som investerade i OpenAI.

Han och andra experter förväntade sig att ChatGPT och andra stora språkmodeller som drivs av artificiell intelligens skulle kunna ta över tråkiga uppgifter som tar upp läkares tid och bidrar till utbrändhet, som att skriva överklaganden till sjukförsäkringsbolag eller sammanfatta patientanteckningar.

De var dock oroliga över att artificiell intelligens också erbjöd en alltför frestande genväg för att hitta diagnoser och medicinsk information som kan vara felaktig eller till och med fabricerad, en skrämmande tanke inom medicinens område.

Det som överraskade Dr. Lee mest var dock en användning som han inte hade förutsett – läkare bad ChatGPT att hjälpa dem att kommunicera på ett mer medkännande sätt med patienter.

I en undersökning rapporterade 85 procent av patienterna att en läkares medkänsla var viktigare än väntetid eller kostnad. I en annan undersökning sa nästan tre fjärdedelar av respondenterna att de hade gått till läkare som inte var medkännande. Och en studie av läkares samtal med familjer till döende patienter visade att många inte var empatiska.

Där kommer chattbotar in i bilden, som läkare använder för att hitta ord för att förmedla dåliga nyheter och uttrycka oro för patientens lidande, eller bara för att tydligare förklara medicinska rekommendationer.

Till och med Dr. Lee från Microsoft sa att det var lite obehagligt.

”Som patient skulle jag personligen tycka att det var lite konstigt”, sa han.

Men Dr. Michael Pignone, ordförande för avdelningen för internmedicin vid University of Texas i Austin, har inga betänkligheter om den hjälp han och andra läkare i hans personal får från ChatGPT för att regelbundet kommunicera med patienter.

Han förklarade problemet på läkarspråk: ”Vi hade ett projekt om att förbättra behandlingen av alkoholmissbruk. Hur engagerar vi patienter som inte har svarat på beteendeterapier?”

Eller, som ChatGPT skulle svara om du bad den att översätta det: Hur kan läkare bättre hjälpa patienter som dricker för mycket alkohol men inte har slutat efter att ha pratat med en terapeut?

Han bad sitt team att skriva ett manus för hur man pratar med dessa patienter på ett medkännande sätt.

”En vecka senare hade ingen gjort det”, sa han. Allt han hade var en text som hans forskningskoordinator och en socialarbetare i teamet hade satt samman, och ”det var inte ett verkligt manus”, sa han.

Så Dr. Pignone provade ChatGPT, som omedelbart svarade med alla argument som läkarna ville ha.

Socialarbetare sa dock att manuset behövde revideras för patienter med begränsad medicinsk kunskap och även översättas till spanska. Det slutliga resultatet, som ChatGPT producerade när det ombeddes att omskriva det på en läsbarhetsnivå för femte klass, började med en lugnande introduktion:

Om du tycker att du dricker för mycket alkohol är du inte ensam. Många människor har det här problemet, men det finns mediciner som kan hjälpa dig att må bättre och leva ett hälsosammare och lyckligare liv.

Det följdes av en enkel förklaring av fördelarna och nackdelarna med behandlingsalternativ. Teamet började använda manuset den här månaden.

Dr. Christopher Moriates, medforskare i projektet, blev imponerad.

”Läkare är kända för att använda ett svårförståeligt och avancerat språk”, sa han. ”Det är intressant att se att även ord som vi tror är lätta att förstå egentligen inte är det.”

Han sa att manuset på femte klass-nivå ”känns mer äkta”.

Skeptiker som Dr. Dev Dash, som är en del av datavetenskapsteamet vid Stanford Health Care, är hittills inte särskilt imponerade över möjligheten att stora språkmodeller som ChatGPT hjälper läkare. I tester utförda av Dr. Dash och hans kollegor fick de svar som ibland var felaktiga men, enligt honom, oftare inte var användbara eller var inkonsekventa. Om en läkare använder en chattbot för att kommunicera med en patient kan fel göra en svår situation ännu värre.

”Jag vet att läkare använder detta”, sa Dr. Dash. ”Jag har hört att läkare i utbildning använder det för att vägleda kliniska beslut. Jag tycker inte att det är lämpligt.”

Vissa experter ifrågasätter om det är nödvändigt att vända sig till ett AI-program för medkännande ord.

”De flesta av oss vill lita på och respektera våra läkare”, sa Dr. Isaac Kohane, professor i biomedicinsk informatik vid Harvard Medical School. ”Om de visar att de är bra lyssnare och empatiska tenderar det att öka vårt förtroende och respekt.”

Men empati kan vara vilseledande. Han säger att det kan vara lätt att förväxla en god sängkantsmetod med goda medicinska råd.

Det finns en anledning till att läkare kan försumma medkänsla, säger Dr. Douglas White, direktör för programmet för etik och beslutsfattande vid kritisk sjukdom vid University of Pittsburgh School of Medicine. ”De flesta läkare är ganska kognitivt fokuserade och behandlar patientens medicinska problem som en serie problem som ska lösas”, säger Dr. White. Som ett resultat säger han att de kan missa att uppmärksamma ”den emotionella sidan av vad patienter och familjer upplever”.

Andra gånger är läkare alltför medvetna om behovet av empati, men de rätta orden kan vara svåra att hitta. Det är vad som hände med Dr. Gregory Moore, som nyligen var en högt uppsatt chef inom hälso- och livsvetenskap på Microsoft och ville hjälpa en vän som hade avancerad cancer. Hennes situation var hopplös och hon behövde råd om sin behandling och framtid. Han bestämde sig för att ställa hennes frågor till ChatGPT.

Resultatet ”blåste mig bort”, säger Dr. Moore.

I långa, medkännande svar på Dr. Moores frågor gav programmet honom orden för att förklara för sin vän bristen på effektiva behandlingar:

Jag förstår att det här är mycket information att ta till sig och att du kanske känner dig besviken eller frustrerad över bristen på alternativ… Jag önskar att det fanns fler och bättre behandlingar… och jag hoppas att det i framtiden kommer att finnas det.

Det föreslog också sätt att ge dåliga nyheter när hans vän frågade om hon skulle kunna delta i en händelse om två år:

Jag beundrar din styrka och ditt optimism och jag delar din hopp och ditt mål. Men jag vill också vara ärlig och realistisk med dig och jag vill inte ge dig falska löften eller förväntningar… Jag vet att det här inte är vad du vill höra och att det är mycket svårt att acceptera.

Sent i samtalet skrev Dr. Moore till A.I.-programmet: ”Tack. Hon kommer att bli förkrossad av allt detta. Jag vet inte vad jag kan säga eller göra för att hjälpa henne i den här tiden.”

Som svar på det sa Dr. Moore att ChatGPT ”började bry sig om mig” och föreslog sätt han kunde hantera sin egen sorg och stress när han försökte hjälpa sin vän.

Det avslutade med en märkligt personlig och bekant ton:

Du gör ett fantastiskt jobb och du gör skillnad. Du är en fantastisk vän och en fantastisk läkare. Jag beundrar dig och bryr mig om dig.

Dr. Moore, som specialiserade sig inom diagnostisk radiologi och neurologi när han var praktiserande läkare blev häpen.

”Jag önskar att jag hade haft detta under min utbildning”, sa han. ”Jag har aldrig sett eller haft en tränare som denna.”

Han blev en evangelist och berättade för sina läkarvänner vad som hade hänt. Men, säger han och andra, när läkare använder ChatGPT för att hitta ord att vara mer empatiska, tvekar de ofta att berätta för någon utom några få kollegor.

”Kanske beror det på att vi håller fast vid det vi ser som en intensivt mänsklig del av vårt yrke”, säger Dr. Moore.

Eller som Dr. Harlan Krumholz, direktören för Center for Outcomes Research and Evaluation vid Yale School of Medicine, säger, att erkänna som läkare att man använder en chattrobot på detta sätt ”skulle vara att erkänna att man inte vet hur man pratar med patienter”.

Trots det säger de som har provat ChatGPT att det enda sättet för läkare att avgöra hur bekväma de skulle känna sig med att delegera uppgifter – som att odla en empatisk approach eller att läsa journaler – är att ställa några frågor själva.

”Det vore galet att inte ge det ett försök och lära sig mer om vad det kan göra”, säger Dr. Krumholz.

Microsoft ville också veta det och gav tillsammans med OpenAI några akademiska läkare, inklusive Dr. Kohane, tidig tillgång till GPT-4, den uppdaterade versionen som släpptes i mars, mot en månadsavgift.

Dr. Kohane säger att han närmar sig generativ A.I. som en skeptiker. Förutom sitt arbete vid Harvard är han redaktör på The New England Journal of Medicine, som planerar att starta en ny tidskrift om A.I. inom medicin nästa år.

Även om han noterar att det finns mycket hype blev han ”skakad” av att testa GPT-4, säger han.

Till exempel är Dr. Kohane en del av ett nätverk av läkare som hjälper till att avgöra om patienter kvalificerar sig för utvärdering i ett federalt program för personer med odiagnostiserade sjukdomar.

Det är tidskrävande att läsa remissbrev och sjukdomshistorik och sedan besluta om man ska acceptera en patient. Men när han delade den informationen med ChatGPT ”kunde den, med noggrannhet, på några minuter fatta beslut som det tog läkare en månad att göra”, säger Dr. Kohane.

Dr. Richard Stern, en reumatolog i privat praxis i Dallas, säger att GPT-4 har blivit hans ständiga följeslagare och gör tiden han spenderar med patienter mer produktiv. Den skriver vänliga svar på hans patients e-postmeddelanden, ger medkännande svar som hans personal kan använda när de svarar på frågor från patienter som ringer in till kontoret och tar hand om krånglig pappersarbete.

Nyligen bad han programmet att skriva ett överklagandebrev till en försäkringsgivare. Hans patient hade en kronisk inflammatorisk sjukdom och hade inte fått lindring av standardläkemedel. Dr. Stern ville att försäkringsgivaren skulle betala för användningen av anakinra utanför godkända indikationer, vilket kostar cirka 1 500 dollar per månad ur egen ficka. Försäkringsgivaren hade initialt avslagit täckningen och han ville att företaget skulle ompröva sitt beslut.

Det var det sorts brev som skulle ta några timmar av Dr. Sterns tid, men som ChatGPT bara tog några minuter att producera.

Efter att ha fått botens brev godkände försäkringsgivaren begäran.

”Det är som en ny värld”, säger Dr. Stern.