Googles nya AI-verktyg kan hjälpa till att avkoda den mystiska algoritmer som bestämmer allt

0
145

Daphne Leprince-Ringuet

Av Daphne Leprince-Ringuet

| November 21, 2019 — 12:47 GMT (12:47 GMT)

| Ämne: Artificiell Intelligens

IBM lanserar anti-bias verktygslåda för att hjälpa företag att hantera AI distribution
Bias upptäckt och black box öppenhet är att begränsa AI installationer på skala, menar IBM.
Läs mer: https://zd.net/2Oxdguc

Medan de flesta människor stöter på algoritmer varje dag, inte för att många kan hävda att de verkligen förstår hur AI faktiskt fungerar. Ett nytt verktyg som presenterades av Google, men hoppas att hjälpa vanliga människor förstå komplexiteten i lärande.

Dubbat “Förklaras AI”, och har lovar att göra precis vad namnet beskriver: att förklara för användarna hur och varför en machine-learning-modellen når sina slutsatser.

Att göra så, förklaringen kommer verktyget att kvantifiera hur mycket varje funktion i dataset bidragit till resultatet av algoritmen. I varje faktor kommer att ha en värdering som speglar hur mycket det påverkade machine-learning-modellen.

SE: Hur man ska genomföra AI och maskininlärning (ZDNet särskild rapport) | Ladda ner rapporten som en PDF (TechRepublic)

Användare kan dra ut som betyg för att förstå varför en given algoritm som nått ett visst beslut. Till exempel, i händelse av en modell som beslutar om eller inte att godkänna någon för ett lån, Förklaras AI kommer att visa konto och kredit värdering som den mest avgörande uppgifter.

Att införa den nya funktionen på Google: s Nästa evenemang i London, VD för Google Cloud, Thomas Kurian, sade: “Om du med hjälp av AI för kredit-scoring du vill kunna förstå varför den modell som avvisade en viss modell och accepterade en annan.”

“Förklaras AI gör att du, som kund, som med hjälp av AI i ett företags affärsprocess, för att förstå varför AI infrastruktur genereras ett visst resultat”, sade han.

Den förklarar verktyget kan nu användas för maskin-lärande modeller hostad på Googles AutoML Tabeller och Moln AI Plattform Prognos.

Google hade tidigare vidtagit åtgärder för att göra algoritmer mer transparent. Förra året lanserade den Vad-Om Verktyg för utvecklare att visualisera och känn datamängder när man arbetar på bolagets AI plattform.

Genom att kvantifiera data faktorer, Förklaras AI låser upp ytterligare insikter, samt att göra dessa insikter läsbar för fler användare.

“Du kan koppla ihop AI Förklaringar med våra Vad-Om verktyg för att få en komplett bild av modellens beteende, säger Tracy Frey, director of strategy på Google Cloud.

I vissa områden, som hälso-och sjukvård, förbättra insynen i AI skulle vara särskilt användbara.

I fallet av en algoritm som programmeras för att diagnostisera vissa sjukdomar, till exempel, det skulle låta läkare visualisera symtom plockas upp av modellen för att fatta sitt beslut, och kontrollera att dessa symtom är inte falska positiva eller tecken på olika sjukdomar.

Bolaget meddelade även att det är lansera ett nytt koncept av vad man kallar “modell” kort – kort dokument som ger snap information om särskilda algoritmer.

SE: Google gör Contact Center AI allmänt tillgängliga

Dokumenten är i huvudsak ett ID-kort för lärande, inklusive praktiska upplysningar om en modells prestanda och begränsningar.

Enligt företaget, detta kommer att “hjälpa utvecklare att fatta bättre beslut om vilka modeller som ska användas för vilket ändamål och hur man ska använda dem på ett ansvarsfullt sätt.”

Två exempel på modell kort har redan publicerats av Google för att tillhandahålla information om ett ansikte upptäckt algoritm och ett objekt upptäckt algoritm.

google-face-detection.png

Face detection-modell kort förklarar att algoritmen kan vara begränsad av den nominella storlek, orientering eller dålig belysning.

Bild: Google Modell Kort

Användare kan läsa om modellens resultat. prestanda och begränsningar. Till exempel ansiktsigenkänning modell kort förklarar att algoritmen kan vara begränsad av den nominella storlek, orientering eller dålig belysning.

De nya verktyg och funktioner meddelade i dag är en del av Googles försök att bevisa att det är att hålla sig till sin AI principer, som efterlyser större insyn i utvecklingen av tekniken.

Tidigare i år, bolaget upplöst sin en vecka gamla AI etik som styrelsen, som har skapats för att övervaka sin användning av artificiell intelligens.

Innovation

Prisvärda gåvor: Top tech-prylar för under $100

Ännu mer konstigt men super bra prylar

10 stora gåvor för hackare i ditt liv

Armageddon: tech Kan användas för att bryta upp en asteroid? (ZDNet YouTube)

Japanska flygbolaget vill robotar att resa i ditt ställe (CNET)

Problemet med AI? Människor (TechRepublic)

Relaterade Ämnen:

Cloud

Digital Omvandling

CXO

Sakernas Internet

Innovation

Affärssystem

Daphne Leprince-Ringuet

Av Daphne Leprince-Ringuet

| November 21, 2019 — 12:47 GMT (12:47 GMT)

| Ämne: Artificiell Intelligens