Den artificiella intelligensens etik i läkararbetet

Det är läkarnas möjlighet och skyldighet att på ett ansvarsfullt och fullt ut använda ny teknik till förmån för sina patienter.

Vid användning av artificiell intelligens måste läkaren agera enligt läkaretikens principer och alltid förhålla sig reserverat till resultatet som ges av algoritmen.

Artificiell intelligens, artificial intelligence eller augmented intelligence (AI) avser ett systems förmåga att tolka externa data korrekt, lära sig av sådan information och använda inlärda saker för att uppnå vissa mål och uppgifter genom flexibel anpassning. AI påverkar läkararbetet på två olika sätt: enligt hur AI fungerar idag och enligt vad AI möjligen kan göra i morgon. Det förstnämnda gäller olika tillämpningar av applikationer med snäv AI, och i det senare tillkommer en möjlig artificiell generell intelligens (AGI). Dessa två utvecklingslinjer skapar mycket olika typer av etiska utmaningar.

Snäv AI kan utföra en viss nischuppgift likt en intelligent aktör. Tidigare försökte man utveckla artificiell intelligens genom att utforma komplexa datorprogram, där hela AI-prestandan var under programmerarens kontroll. Både etiska och juridiska frågor är relativt enkla. Programmeraren ansvarar för att programmet fungerar korrekt och användaren har ett ansvar för att använda programmet korrekt. Så gott som alla av dagens AI-program fungerar är produkter av maskininlärning. Detta har möjliggjorts genom de stora mängder data som finns tillgängliga i dag, förmågan att överföra data snabbt och datorernas kalkyleringskapacitet. Maskininlärning är nödvändig om man vill utnyttja tillgängliga data. Detta medför nya etiska perspektiv även till läkararbetet. Det är läkarnas möjlighet och skyldighet att på ett ansvarsfullt och fullt ut använda ny teknik till förmån för sina patienter.

MASKININLÄRNINGENS PRINCIP

Inom maskininlärning ges data och svaret, vilket resulterar i en mall för att komma till svaret, medan man i traditionell programmering ger data och en beräkningsmodell och får ett svar. AI använder en beräkningsformel (algoritm) som utvecklats och optimerats genom maskininlärning. I ett bredare perspektiv är det oftast fråga om identifiering eller en prediktiv funktion: finns det en intrakraniell blödning på bilden eller inte, vilken riskkategori tillhör en person i fråga om sjukdomen och så vidare. Artificiell intelligens har till exempel använts för tidig identifiering av sepsisinfektion hos prematurer.

Maskininlärning kan antingen vara 1) vägledd (supervised), varvid maskinen i inlärningsskedet får veta om den har rätt, eller 2) icke-vägledd (unsupervised), där algoritmen till exempel får dela upp data i klasser. Den senare används till exempel för att skapa hypoteser. De flesta tillämpningar som används eller utvecklas för närvarande bygger på vägledd inlärning.

TILLÄMPNINGAR AV MASKININLÄRNING - LÄKARENS ETIK OCH ANSVAR

Maskinininlärning baseras på induktivt resonemang där det inte finns något definitivt svar. I stället förstärks slutsatsen genom ökade observationer. En sjuk person har en viss uppsättning symtom, som även följande person och därpå följande har. Vid detektering av dessa symtom börjar maskinen föreslå sjukdomen i fråga. I praktiken gör snäv AI två saker, den identifierar (ofta genom uppdelning i klasser) och förutspår. Induktion är en central del av de etiska utmaningarna med snäv AI, då en algoritm som byggts av snäv AI endast använder egenskaper som den har lärts. När en läkare bedömer resultatet från AI bör hen kunna svara på frågan om patienten kan beskrivas av de egenskaper (flöden) som maskininlärningsmodellen bygger på, samt på frågan om dessa flöden använts korrekt. På grund av maskininlärningsmodellernas komplexitet kan detta vara mycket svårt.

När AI används som ett tillägg till mänskligt arbete, till exempel vid kontroll av olika certifierade enheter, sensorisk support eller för att skapa virtuell verklighet för att hjälpa en kirurg, är situationen tydlig ur etisk synvinkel. Om dessa tekniker kan förbättra patientvården bör de användas.

När AI:ns resultat används i beslutsfattandet är det viktigt hur den mottagna identifieraren eller prognosen används. Den kan antingen bara 1) anmälas, 2) motivera ett åtgärdsförslag, eller 3) automatiskt utföra någon åtgärd på basis av resultatet. AI:ns etiska frågor och ansvarsfrågor förknippas med användningen av AI för identifiering, prognos och beslutsfattande.

  1. Vid anmälan fungerar prognosen av AI som ett hjälpmedel för läkarens beslutsfattande, och läkaren ger den en viss betydelse med hjälp av sin yrkeskunnighet. Om enheten gör logiska resonemang eller mer komplexa beräkningar än entydiga aritmetiska kalkyler försätter behandlingsförslaget som ges av algoritmen läkaren i en mer krävande situation. Kan en läkare anklagas om hen agerar i strid med algoritmens förslag, eller kan hen anklagas om hen agerar i enlighet med förslaget om resultatet är dåligt? Med tanke på att båda tankegångarna är möjliga bör lagstiftningen garantera läkaren både tillräcklig autonomi och adekvat rättsskydd i dessa situationer. Här måste man ta hänsyn till AI:ns induktivitet, varför läkaren alltid måste förhålla sig reserverat till resultatet som ges av algoritmen. I praktiken förblir ansvaret för beslutet hos läkaren.
  2. Om ett program utlöser en varning när ett visst poängantal uppnås, är algoritmen en medicinsk enhet. Tillverkaren har ansvaret för att säkerställa att enheten utför kalkylen korrekt. Om datainmatning krävs ansvarar den person som matar in uppgifterna för korrekt inmatning av informationen. Att tolka och använda information i rätt sammanhang är på användarens ansvar. Läkaren bör också kunna inse på vilka grunder AI kom fram till sitt förslag. Då en maskin ofta har använt en mycket stor mängd olika typer av data och komplexa beräkningsmetoder vid inlärning, är det ofta svårt att gestalta dessa grunder. Å sin sida är det inte nödvändigtvis etiskt att inte utnyttja AI. Det finns ingen enkel lösning på utmaningen. Då det i detta utvecklingsskede inte finns någon färdig praxis har läkarna en etisk skyldighet att delta i debatten om användningen av artificiell intelligens.
  3. I den allmänna etiska debatten har ansvaret tagits upp som ett problem i en situation där AI gör saker direkt på basis av sitt eget resultat utan mänsklig bedömning. I sista hand kan situationen jämföras med annan användning av teknik. I en situation där algoritmen automatiskt utför en procedur ansvarar läkaren för valet av rätt algoritm för patienten och naturligtvis för att övervaka dess funktion. Här ska läkaren kunna fatta sitt beslut på rent terapeutiska grunder. Algoritmens funktionalitet är på tillverkarens ansvar. På samma sätt är tillverkaren ansvarig för att algoritmens funktion och de variabler som påverkar den har beskrivits heltäckande och transparent.

UTMANINGAR I AI-BESLUT

Att grunderna för beslut som är förknippade med komplexa algoritmer som använder stora mängder data inte är transparenta är ett problem. I det här fallet har tillverkaren, i en idealisk situation, alltid ansvaret för att beskriva både de variabler som man erbjudit modellen och de variabler man valt för den slutliga modellen. I fråga om variabler som är tydligt definierade som tal eller enligt logiska kategorier kan denna beskrivning göras. Maskininlärning använder dock till exempel mycket bilddata. Härmed kan det vara svårt att gestalta hela grunden för den klassificering eller rekommendation som maskinen producerar. Vem bär det etiska ansvaret för om maskinens förslag är felaktigt diskriminerande? Ett exempel på verkligheten är en algoritm som förutsäger risken för återfallsbrottslighet, som betonade hudfärg. I läkarens arbete bör algoritmernas grundläggande antaganden vara kända. Slutsatser baserade på asiatiska eller amerikanska patientdata kan till exempel inte nödvändigtvis tillämpas på den finländska befolkningen som sådana.

Etiskt tvivelaktigt är att inkludera ekonomiska attribut i flödet av vårdmässig AI. Algoritmer som stöder terapeutiskt beslutsfattande måste åtskiljas från algoritmer som utvärderar ekonomiska perspektiv.

Processen för maskininlärning kan också vara cyklisk. Maskinen lär sig hela tiden mer och fortsätter att optimera algoritmen. I medicintekniska produkter och terapeutiska algoritmer är problemet att man efter varje ny optimering bör testa algoritmens säkerhet och effektivitet på nytt. Därför har man utarbetat instruktioner om datorprogram som medicintekniska produkter (software as a medical device). I praktiken används algoritmen för det den optimerats för. En ny optimering utförs som separata uppdateringar.

UTNYTTJANDE AV BETEENDEÖVERSKOTT

I den digitala världen ger vi alla upphov till stora mängder data, som beskrivs med termen beteendeöverskott (behavioral surplus). Detta gäller data som bildats som biprodukt av individens webbeteende. AI:ns praktiska etik är till stor del kopplad till utnyttjandet av beteendeöverskott. Till exempel kan AI användas i stor utsträckning för att övervaka hälsotillståndet hos en befolkning. Ju mer olika slags information vi kan samla in om en individ (rörlighet, konsumtionsvanor, sociala medier och så vidare), desto bättre kan vi bedöma deras hälsorisker. Detta kan dock endast göras med individens samtycke, då EU:s dataskyddsförordning fastställer strikta gränser för datainsamling och strikta individuella dataskyddskrav. Samtycke bör noggrant definieras för en specifik situation och användning. Om man genom att kombinera befintliga uppgifter kan upptäcka en hälsorisk för en individ som kan förebyggas genom lämpliga ingrepp, kan man göra denna analys och informera individen om situationen? Ja, om personen har gett sitt samtycke till sådan användning av information.

Med hjälp av spårning har den digitala världen redan visat att människor redo att ge upp sin integritet för någon annan fördel. Det finns inget entydigt svar på hur läkaren ska positionera sig i denna förändring. Det som är viktigt är att vid behov uppdatera verksamhetsmodeller och delta i diskussionen. En individs beredskap att dela sin information bygger inte alltid på insikt om alla användningsmöjligheter för informationen. Om någon viss information från en enskild person inte skulle berätta något djupt om en persons hälsotillstånd, kan samma data som samlas in från miljontals människor, med hjälp av artificiell intelligens, ge till exempel betydande information om hälsan hos en viss individ. I så fall handlar det inte om sekundär användning av hälsodata, som stadgas separat i lag, utan om sekundär användning av icke-hälsorelaterade uppgifter för hälsorelaterade ändamål. Det är en läkares etiska skyldighet att handla i patientens och individens bästa intresse, även när medicinsk expertis i ökande grad konsulteras för produktion av algoritmisk hälsoteknik.

Artificiell intelligens öppnar nya möjligheter att använda data som samlas in från oss alla för att upptäcka hälsorisker från en tidig ålder, så läkaren bör använda denna information till förmån för patienten och med respekt för hens integritet. Men när algoritmer utvecklas krävs inte medicinsk expertis för att de ska kunna skapa prognoser om hälsotillstånd. Kan till exempel en arbetsgivare kräva att få information från sociala medier om en arbetssökande för att utföra en karaktärs- eller riskanalys av den sökande? Hur ska en företagshälsoläkare behandla en begäran att delta i sådant arbete? Är personen vars riskprofil läkaren ser i maskinen en patient eller något annat? Det finns fortfarande inga tydliga svar på allt. Läkaren är i första hand på patientens sida och det är viktigt att upprätthålla förtroendet mellan läkare och patient även när man utnyttjar artificiell intelligens.

MÖJLIGHET TILL ARTIFICIELL GENERELL INTELLIGENS

Artificiell generell intelligens (AGI) skulle likt människohjärnan kunna lösa flera olika typer av problem och använda sina tidigare inlärda fakta rationellt i nya situationer utan separat programmering. Experterna uppskattar att AGI kan bli verklighet om allt från drygt tio år till aldrig. Det beror delvis på att ingen ännu vet hur mänsklig intelligens fungerar. De riktlinjer och koder som borde bifogas sådana superintelligenser eller relaterade rättsliga frågor har redan dryftats.

AGI är fortfarande ett teoretiskt begrepp, men redan möjligheten till dess existens skapar etiska frågor. Av dessa berörs läkaren särskilt av frågor som rör läkaredens skydd av liv. Om vi hade något mellan oss eller något som till sin intellektuella prestation vore jämlikt med oss eller stod ovanför oss, borde AI då också ges rättigheter som autonomt väsen? Värderar vi AI utifrån intelligens, svårdefinierat medvetande eller något annat? Det finns inga entydiga svar på dessa frågor. Människan och andra djurarter utgör en helhet. På grund av detta har blotta möjligheten till AGI medfört nya dimensioner till det etiska resonemanget om medicinsk praxis, till exempel i fråga om djurförsök.

Artificiell intelligens har potential att både utöka vår förståelse och krympa den. Etiken löser vi genom vår förmåga att främja det förstnämnda och undvika det senare. Vid användning av artificiell intelligens ska läkaren alltid handla enligt etiska principer.

LÄS MER
Domingos P. The Master algorithm. Basic Books, 2015.
Software as a medical device. https://www.fda.gov/medical-devices/digital-health/software-medical-device-samd.
Zuboff S. The age of surveillance capitalism. www.profilebooks.com, 2019.
Boström N. Superintelligence. Oxford University Press, 2017.

 

 

© Finlands Läkarförbund 2021