Clear Sky Science · sv

Agentisk artificiell intelligens inom vården: en scopingöversikt

· Tillbaka till index

Smartare hjälpare bakom sjukhusets kulisser

Föreställ dig en digital assistent på sjukhuset som inte bara svarar på frågor, utan tyst observerar vad som händer, avgör vad som bör göras härnäst och agerar utan att varje steg måste begäras manuellt. Denna artikel undersöker den framväxande teknologin—kallad ”agentisk AI”—och hur nära vi är att ha sådana system som säkert kan stödja läkare, sjuksköterskor och patienter i verklig klinisk vård.

Figure 1
Figure 1.

Från enkla program till måldrivna samarbetspartner

Datorer i medicinen började som räknemaskiner och strikta regelstyrda system: de kunde klassificera en bild eller flagga ett avvikande labvärde, men bara när de fick precisa instruktioner. Nyare ”generativa” system, som chatbottar, kan producera text, bilder eller kod, men väntar fortfarande på mänskliga uppmaningar. Agentisk AI tar ett steg längre. Dessa system är utformade kring mål—som att förbättra ett traumateams respons, skräddarsy cancerbehandling eller hjälpa ett barn att göra framsteg i terapi. De samlar information från flera källor, planerar en handlingslinje, anropar andra mjukvaruverktyg själva och anpassar vad de gör utifrån hur situationen utvecklas, samtidigt som människor behåller ansvar för de stora besluten.

Var dessa digitala agenter testas

Författarna sökte i fem stora forskningsdatabaser och fann endast sju studier världen över som verkligen använde denna mer självständiga AI-stil inom vården. Projekten täckte akutsjukvård, cancerbehandling och diagnostik, medicinsk bildbehandling, rehabilitering och proteinanalyser för läkemedelsupptäckt. Ett system följde traumafall i realtid, skapade mer fullständiga rapporter och utlöste larm när vitala parametrar avvek. Ett annat skickade anpassade dagliga meddelanden till canceröverlevare för att uppmuntra promenader. Ett virtual reality-spel justerade sin svårighetsgrad för att hjälpa barn med Downs syndrom att bygga motoriska och sociala färdigheter. Andra system fokuserade på att läsa thoraxröntgen, planera strålbehandlingar, upptäcka levercancer från små partiklar i blodet och automatiskt analysera komplex proteindata som är relevanta för nya terapier.

Figure 2
Figure 2.

Vad dessa system klarar väl — och var de brister

I dessa experiment visade de agentiska systemen att de kunde fungera med en viss grad av självständighet: de förföljde tydligt definierade mål, tog initiativ till att köra analyser eller anropa andra program och i vissa fall kombinerade insatserna från flera samarbetande AI-”agenter”. Resultaten var ofta imponerande. Ett verktyg särskilde levercancer från icke-cancerfall med över 94 procents noggrannhet, inklusive patienter där vanliga blodmarkörer var missledande. Ett annat matchade eller överträffade expertplanerare vid utformning av strålbehandlingar, och ett system för resonemang kring thoraxröntgen nådde topprestanda utan att tränas om för varje ny fråga. Men dessa framgångar var starkt bundna till snäva uppgifter. De flesta system fungerade endast i kontrollerade miljöer, på noggrant förberedda data, och inget kunde verkligen lära sig och förbättras över långa tidsperioder eller minnas tidigare patienter på ett meningsfullt sätt.

Säkerhet, förtroende och den mänskliga faktorn

Översikten pekar också på viktiga risker. Eftersom dessa agenter kan agera på egen hand—hämta data, föreslå planer, till och med utlösa larm—kan fel eller dålig samordning få allvarliga konsekvenser, särskilt i tidskritiska områden som cancerbehandling. Många av studierna hade måttlig till allvarlig risk för bias och testade inte verktygen i vardaglig klinisk praktik. Det finns även oro för dold slutledning (”black box”-beteende), cybersäkerhet och vem som ansvarar om ett autonomt system bidrar till skada. Myndigheter i USA och Europa börjar betrakta medicinsk AI som ”hög risk”, men nuvarande regler är inte skrivna med högt självständiga, målsökande programvaror i åtanke. Författarna argumenterar för att mänsklig övervakning måste förbli central och att tydligare regler behövs kring hur långt sådana system får gå på egen hand.

Vad som behöver göras härnäst

För tillfället är agentisk AI inom vården snarare ett lovande prototypstadium än en färdig produkt. Översikten visar att dessa system kan hjälpa till med en rad uppgifter—från patientövervakning och stöd vid rehabilitering till planering av komplexa cancerbehandlingar—men endast en studie har involverat verkliga patienter i en kontrollerad prövning. Författarna efterlyser gemensamma definitioner av vad som räknas som ”agentisk”, standardiserade metoder för att mäta säkerhet och nytta samt större kliniska studier i verkliga miljöer. Sjukhus kommer också att behöva bättre datasystem, starkare integritetsskydd och tydliga riktlinjer som håller vårdgivare i ledningen. Om dessa grundvalar byggs omsorgsfullt kan agentisk AI mogna till en pålitlig digital kollega som lättar arbetsbördan, skärper besluten och i slutändan förbättrar patientvården, snarare än en mystisk svart låda som fattar egna val.

Citering: Collaco, B.G., Haider, S.A., Prabha, S. et al. The role of agentic artificial intelligence in healthcare: a scoping review. npj Digit. Med. 9, 345 (2026). https://doi.org/10.1038/s41746-026-02517-5

Nyckelord: agentisk AI, automatisering inom vården, kliniskt beslutsstöd, AI för medicinsk bildbehandling, digital hälsa