Algoritmer som upptäcker cancer kan luras av hackade bilder

0
179

Artificiell intelligensprogram som kontrollerar medicinska bilder för bevis på cancer kan duperas av hacks och cyberattacker, enligt en ny studie. Forskare visade att ett datorprogram kunde lägga till eller ta bort bevis på cancer från mammografi, och dessa förändringar lurade både ett AI-verktyg och mänskliga radiologer.

Det kan leda till en felaktig diagnos. Ett AI-program som hjälper till att screena mammografi kan säga att en skanning är hälsosam när det faktiskt finns tecken på cancer eller felaktigt säga att en patient har cancer när de faktiskt är cancerfri. Sådana hack är inte kända för att ha hänt i den verkliga världen ännu, men den nya studien lägger till en växande mängd forskning som tyder på att sjukvårdsorganisationer måste vara förberedda på dem.

Hackare riktar sig allt mer mot sjukhus och vårdinstitutioner med cyberattacker. För det mesta tar dessa attacker bort patientdata (vilket är värdefullt på den svarta marknaden) eller låser upp en organisations datorsystem tills organisationen betalar en lösensumma. Båda dessa typer av attacker kan skada patienter genom att fördärva operationerna på ett sjukhus och göra det svårare för vårdpersonal att ge bra vård.

Men experter blir också mer oroliga för potentialen för fler direkta attacker på människors hälsa. Säkerhetsforskare har visat att hackare på distans kan bryta sig in i internetanslutna insulinpumpar och till exempel leverera farliga doser av medicinen.

Hacks som kan förändra medicinska bilder och påverka en diagnos faller också i den kategorin. I den nya studien om mammografi, publicerad i Nature Communications, designade ett forskarlag från University of Pittsburgh ett datorprogram som skulle få röntgenbilderna av bröst som ursprungligen inte verkade ha några tecken på cancer att se ut som om de var cancerösa, och som skulle få mammografi som ser cancerösa ut att inte ha några tecken på cancer. De matade sedan de manipulerade bilderna till ett artificiell intelligensprogram som tränats för att upptäcka tecken på bröstcancer och bad fem mänskliga radiologer att avgöra om bilderna var äkta eller falska.

Cirka 70 procent av de manipulerade bilderna lurade det programmet – det vill säga AI sa felaktigt att bilder som manipulerats för att se cancerfria ut var cancerfria och att bilderna som manipulerades för att se ut som om de hade cancer hade bevis för cancer. När det gäller radiologerna var vissa bättre på att upptäcka manipulerade bilder än andra. Deras noggrannhet när det gällde att plocka ut de falska bilderna varierade brett, från 29 procent till 71 procent.

Andra studier har också visat möjligheten att en cyberattack mot medicinska bilder kan leda till felaktiga diagnoser. Under 2019 visade ett team av cybersäkerhetsforskare att hackare kunde lägga till eller ta bort bevis på lungcancer från CT-skanningar. Dessa förändringar lurade också både mänskliga radiologer och artificiell intelligensprogram.

Det har inte förekommit offentliga eller högprofilerade fall där ett hack som detta har hänt. Men det finns några anledningar till att en hackare kanske vill manipulera saker som mammografi eller lungcancerskanning. En hackare kan vara intresserad av att rikta in sig på en specifik patient, som en politisk person, eller så kanske de vill ändra sina egna skanningar för att få pengar från sitt försäkringsbolag eller registrera sig för invaliditetsersättning. Hackare kan också manipulera bilder slumpmässigt och vägra att sluta manipulera dem tills ett sjukhus betalar en lösensumma.

Oavsett anledningen visar demonstrationer som denna att sjukvårdsorganisationer och personer som designar AI-modeller bör vara medvetna om att hack som ändrar medicinska skanningar är en möjlighet. Modeller bör visas manipulerade bilder under sin utbildning för att lära dem att upptäcka falska, säger studieförfattaren Shandong Wu, docent i radiologi, biomedicinsk informatik och bioteknik vid University of Pittsburgh, i ett uttalande. Radiologer kan också behöva utbildas för att identifiera falska bilder.

“Vi hoppas att den här forskningen får folk att tänka på säkerheten för medicinsk AI-modell och vad vi kan göra för att försvara oss mot potentiella attacker,” sa Wu.