Algoritmer, der opdager kræft, kan narre af hackede billeder

0
171

Programmer med kunstig intelligens, der kontrollerer medicinske billeder for tegn på kræft, kan duperes af hacks og cyberangreb, ifølge en ny undersøgelse. Forskere påviste, at et computerprogram kunne tilføje eller fjerne tegn på kræft fra mammografi, og disse ændringer narre både et AI-værktøj og menneskelige radiologer.

Det kan føre til en forkert diagnose. Et AI-program, der hjælper med at screene mammografi, kan sige, at en scanning er sund, når der faktisk er tegn på kræft, eller forkert sige, at en patient har kræft, når de faktisk er kræftfri. Sådanne hacks vides ikke at være sket i den virkelige verden endnu, men den nye undersøgelse tilføjer til en voksende mængde forskning, der tyder på, at sundhedsorganisationer skal være forberedt på dem.

Hackere retter sig i stigende grad mod hospitaler og sundhedsinstitutioner med cyberangreb. Det meste af tiden sluger disse angreb patientdata (som er værdifulde på det sorte marked) eller låser en organisations computersystemer inde, indtil disse organisationer betaler en løsesum. Begge disse typer angreb kan skade patienterne ved at hæmme operationerne på et hospital og gøre det sværere for sundhedspersonale at levere god pleje.

Men eksperter bliver også mere og mere bekymrede over potentialet for flere direkte angreb på folks helbred. Sikkerhedsforskere har vist, at hackere eksternt kan bryde ind i internetforbundne insulinpumper og levere farlige doser af medicinen, for eksempel.

Hacks, der kan ændre medicinske billeder og påvirke en diagnose, falder også ind under den kategori. I den nye undersøgelse om mammografi, offentliggjort i Nature Communications, designede et forskerhold fra University of Pittsburgh et computerprogram, der ville få røntgenscanninger af bryster, der oprindeligt så ikke ud til at have tegn på kræft, til at se ud som om de var kræftfremkaldende, og som ville få mammografi, der ser kræftfremkaldende ud, til at se ud til ikke at have tegn på kræft. De fodrede derefter de manipulerede billeder til et kunstig intelligens-program, der var trænet til at opdage tegn på brystkræft og bad fem menneskelige radiologer om at afgøre, om billederne var ægte eller falske.

Omkring 70 procent af de manipulerede billeder narrede det program – det vil sige, at AI fejlagtigt sagde, at billeder manipuleret til at se kræftfri ud var kræftfri, og at billederne manipuleret til at se ud som om de havde kræft havde beviser for kræft. Hvad angår radiologerne, var nogle bedre til at få øje på manipulerede billeder end andre. Deres nøjagtighed til at udvælge de falske billeder spændte vidt, fra 29 procent til 71 procent.

Andre undersøgelser har også vist muligheden for, at et cyberangreb på medicinske billeder kan føre til forkerte diagnoser. I 2019 viste et hold af cybersikkerhedsforskere, at hackere kunne tilføje eller fjerne beviser for lungekræft fra CT-scanninger. Disse ændringer narrede også både menneskelige radiologer og kunstig intelligens-programmer.

Der har ikke været offentlige eller højt profilerede sager, hvor et hack som dette er sket. Men der er et par grunde til, at en hacker måske ønsker at manipulere ting som mammografi eller lungekræftscanninger. En hacker kan være interesseret i at målrette mod en bestemt patient, f.eks. en politisk person, eller de ønsker måske at ændre deres egne scanninger for at få penge fra deres forsikringsselskab eller tilmelde sig handicapbetalinger. Hackere kan også manipulere billeder tilfældigt og nægte at stoppe med at manipulere med dem, indtil et hospital betaler en løsesum.

Uanset årsagen, viser demonstrationer som denne, at sundhedsorganisationer og folk, der designer AI-modeller, bør være opmærksomme på, at hacks, der ændrer medicinske scanninger, er en mulighed. Modeller bør vises manipulerede billeder under deres træning for at lære dem at spotte falske billeder, sagde studieforfatter Shandong Wu, lektor i radiologi, biomedicinsk informatik og bioteknik ved University of Pittsburgh, i en erklæring. Radiologer skal muligvis også uddannes til at identificere falske billeder.

“Vi håber, at denne forskning får folk til at tænke over sikkerhed for medicinsk AI-modeller, og hvad vi kan gøre for at forsvare os mod potentielle angreb,” sagde Wu.