AI-bildeklassifiseringsfeil kan ødelegge livet ditt. Her er en måte å redusere dem på

0
47
AI Weiquan Lin/Getty Images

Tenk på hvor raskt internett ble nøkkelkanalen for en enorm mengde menneskelig aktivitet, fra handel til kommunikasjon og til samarbeid, og du begynner å få en ide om den transformative rollen kunstig intelligens (AI) vil spille i livene våre i løpet av det neste tiåret.

Akkurat som internett, er AI og dets kjerneundertyper – maskinlæring, naturlig språkbehandling, ansiktsgjenkjenning og dyp læring – spådd å transformere det menneskelige samfunn ved å bygge seg inn i praktisk talt alle fasetter av hverdagen.< /p>

Også: 5 måter å forberede seg på virkningen av generativ AI på IT-profesjonen

Selv i dag lanserer mange IT-systemer og tjenester allerede AI-aktiverte løsninger til forretningsproblemer. Denne allestedsnærværelsen reiser så det logiske spørsmålet, hva skjer hvis AI svikter? 

Angående AI's “hallusinasjoner”. — der teknologien utgjør svar på spørsmål den ikke kjenner — er allerede vanlig.

Vi har også sett algoritmer som viser og forsterker skjevheter mellom kjønn, rase, etnisk og klasse, som er allerede bakt inn i samfunnet.

Også: Vil du jobbe med AI? Slik svinger du karrieren din i 5 trinn

Denne typen problemer oppstår fordi mye av dataene som driver AI-modeller er skrapet fra innhold på internett, hvorav de fleste er produsert av dominerende maktstrukturer. 

Så, for å sikre at en AI-algoritme fungerer riktig og ikke gjør pinlige feil, bør modellene med kraftfremvoksende teknologi bli 'trent' med et sett med data – og i tilfellet nedenfor, bilder – som fungerer som objektive referanser.

Å øke AI på riktig måte

For eksempel Californias tidlige varslingssystem har en bildegjenkjenningsalgoritme koblet til over tusen kameraer over hele staten. Modellen er opplært til å identifisere et røykpuff fra en sky. 

reeb

Gleichs Reeb-graf oversetter ugjenkjennelige innebygde vektorer fra en algoritmes datasett til fargede prikker, slik at klassifiseringsfeil kan observeres.

Purdue University

Fra svulster i lungene til svingende biler på motorveien, programvare for bildegjenkjenning som er opplært til å finne nøkkelindikatorer fra støyen, blir brukt i oppdragskritiske, livreddende scenarier. 

< p>Mens den potensielle positive effekten av denne typen systemer er betydelig, er risikoen fra feilaktige AIer også. Så hvordan sikrer du at AI-bildegjenkjenningssystemer ikke bidrar til å ødelegge samfunnet slik vi kjenner det?

Dessuten: Seks ferdigheter du trenger for å bli en AI-promptingeniør

Ha et godt 'treningssett' av bilder som gir gode benchmarks er viktig. Denne opplæringen innebærer å sikre at informasjon om hver piksel, og hvordan den er merket og klassifisert under en kategori, utføres med upåklagelig presisjon.

På denne måten, når algoritmen går rundt og prøver å finne ut hvilken kategori en bestemt kategori. image faller under, kan den gjøre det ved å henvise til informasjonen om bilder i treningssettet.

Uansett hvor godt utformet treningssettet er, vil en algoritme noen ganger konfrontere ukjent innhold og stoppe opp.

Dette er mer å prøve å finne ut hvor blindveien har skjedd i dataene sett er som å prøve å finne en nål i, ikke bare en høystakk, men en hel låve, gitt potensialet for billioner av enheter med informasjon som utgjør datasett.

Den gode nyheten er at David Gleich, vitenskapsmann og professor i informatikk ved Purdue University, og medforskerne Tamal Dey og Meng Liu, har tryllet frem en ny løsning på dette vanskelige problemet.

"Verktøyet vi' har utviklet hjelper deg med å finne steder hvor nettverket sier: “Hei, jeg trenger mer informasjon for å gjøre det du har bedt om”,'" sier Gleich. "Jeg vil råde folk til å bruke dette verktøyet på alle beslutningsscenarier for nevrale nettverk med høy innsats eller bildeprediksjon."

Hva er under panseret?

Da Gleich utførte sin forskning, møtte han problemer med databasene sine. Databasen forvekslet røntgenbilder, gensekvenser og klær med andre ting. 

Han sier at ett nevrale nett hadde en kronisk vane med å merke en bil som en kassettspiller ganske enkelt fordi bildene var hentet fra online salgsoppføringer som inneholdt bilstereoutstyr.

Problemet kommer fra hvordan algoritmen plasserer et bilde i riktig kategori, som avhenger av å generere en haug med tall kalt 'innebygde vektorer' som er churnet ut basert på informasjonen på bildet. 

AI-en sammenligner de innebygde vektorene i 'treningssettet' med bilder fra andre datasett. Bildet er delt inn i en kategori med høy matchsannsynlighet.

Også: Hvordan får du ansatte til å omfavne AI? (Du kan finne dette lurt)

Dessverre er de innebygde vektorene ofte meningsløse. Så når det er et misforhold eller feil, er det ingen måte å dykke ned i de ugjenkjennelige lagene i algoritmen og oppdage den fornærmende feilen.

For å overvinne dette hinderet brukte Gleich og teamet hans en genial plan . De tok en rask omvei inn i feltet topografi, som i hovedsak er der teknologier som Google Maps finner sin opprinnelse. 

De bestemte seg for å kartlegge forholdet mellom vektorene på en Reeb-graf, en &apos ;kompakt formbeskrivelse, og en løsning som har blitt brukt i formanalyse i 75 år.

Datasettet ble deretter transformert til fargekodede prikker som representerer vektorer som tilhører en eller annen kategori. Tett grupperte prikker av samme farge betegnet samme kategori. 

Prikker med forskjellige farger som overlappet hverandre antydet umiddelbart at noe var galt og – mest kritisk – hvor problemene kunne finnes . 

Også: Hvordan renessanseteknologer forbinder prikkene mellom kunstig intelligens og virksomhet

Og akkurat som det var den normalt uforståelige innsiden av en algoritme sammen med dens problemflekker plutselig like klare som dagen.

"Det vi gjør er å ta disse kompliserte settene med informasjon som kommer ut av nettverket og gi folk en 'in' inn i hvordan nettverket ser dataene på et makroskopisk nivå," Gleich sa. 

"Reeb-kartet representerer de viktige tingene — de store gruppene og hvordan de forholder seg til hverandre — og det gjør det mulig å se feilene.""e; #xA0;

Gleich og kollegene hans har gått ett skritt videre, og gjort deres AI-bildeklassifiseringsverktøy tilgjengelig for publikum. Kode for verktøyet er tilgjengelig på GitHub, i likhet med bruksdemonstrasjoner.

Nå har alle en sjanse til å se relasjonene mellom bilder i et AI-datasett, som forskerne kaller en “fugl” ;s eye view". 

Folk kan bruke verktøyet til å dykke ned og finne kilden til problemet, som er noe som nevrale nettverk sårt trenger for å fungere ordentlig, forhindre skjevhet og beholde oss trygge.