| November 21, 2019 — 12:47 GMT (12:47 GMT)
| Emne: Kunstig Intelligens
IBM lancerer anti-bias værktøjskasse, der skal hjælpe virksomheder med at styre AI implementering
Bias registrerings-og black box gennemsigtighed er at begrænse AI implementeringer på skalaen, mener IBM.
Læs mere: https://zd.net/2Oxdguc
Mens de fleste mennesker kommer på tværs af algoritmer hver dag, ikke så mange, der kan påstå, at de virkelig forstår, hvordan AI rent faktisk virker. Et nyt værktøj afsløret af Google, men håber på at hjælpe almindelige mennesker at forstå kompleksiteten i machine learning.
Døbt “Forklares AI”, de har lover at gøre præcis, hvad dens navn beskriver: at forklare brugerne, hvordan og hvorfor en maskine-learning model når frem til sine konklusioner.
For at gøre det, den forklaring værktøj vil kvantificere, hvor meget hver enkelt funktion i datasættet bidraget til resultatet af algoritmen. Hvert data faktor vil have en score, som afspejler, hvor meget det har påvirket machine-learning model.
SE: Hvordan man gennemfører AI og machine learning (ZDNet særlige rapport) | Download rapporten som PDF (TechRepublic)
Brugerne kan trække ud med at score til at forstå, hvorfor en given algoritme nået en bestemt beslutning. For eksempel, i tilfælde af en model, der træffer afgørelse om, hvorvidt eller ikke at godkende nogen for et lån, kan Forklares AI vil vise konto og kredit score som den mest afgørende data.
Indførelse af den nye funktion på Google ‘ s Næste arrangement i London, den administrerende DIREKTØR for Google, Thomas Kurian, sagde: “Hvis du bruger AI for kredit score, du ønsker at være i stand til at forstå, hvorfor modellen afvises en bestemt model, og accepterede en anden.”
“Forklares AI giver dig, som kunde, der er ved hjælp af AI i en virksomhed, business proces, for at forstå, hvorfor AI infrastruktur genereret et bestemt resultat,” sagde han.
Det forklarer værktøj kan nu bruges til machine-learning modeller, der er hostet på Google ‘ s AutoML Bordene og Sky AI Platform Forudsigelse.
Google havde tidligere taget skridt til at gøre algoritmer mere gennemsigtig. Sidste år, det blev lanceret, Hvad-Hvis-Værktøj for udviklere til at visualisere og sonde datasæt, når du arbejder på virksomhedens AI platform.
Ved at kvantificere data faktorer, Forklares AI låser op for yderligere indsigt, samt at gøre disse indsigter læsbare for flere brugere.
“Du kan parre AI Forklaringer med vores Hvad-Hvis værktøj til at få et komplet billede af din model og adfærd,” sagde Tracy Frey, direktør for strategi på Google Sky.
I nogle felter, som sundhedsydelser, der kan forbedre gennemsigtigheden af AI ville være særlig nyttigt.
I tilfælde af en algoritme, der er programmeret til at diagnosticere bestemte sygdomme, for eksempel, det ville lade læger visualisere symptomer samlet op af model for at træffe sin beslutning, og kontrollere, at disse symptomer er ikke falske positiver eller tegn på forskellige lidelser.
Virksomheden har også meddelt, at det er at lancere et nyt koncept af, hvad den kalder “model på kort” – kort dokumenter, der giver snap oplysninger om bestemte algoritmer.
SE: Google gør Contact Center AI, der er generelt tilgængelige
De dokumenter, der er væsentlige for et ID-kort for machine learning, herunder praktiske oplysninger om en models ydeevne og begrænsninger.
Ifølge selskabet, at dette vil “hjælpe udviklere med at træffe bedre beslutninger om, hvilke modeller for at bruge til hvilke formål og hvordan du installerer dem ansvarligt.”
To eksempler på modeller til kort, der allerede er blevet offentliggjort af Google, der giver oplysninger om en face detection-algoritme og en object detection-algoritme.

Ansigtsgenkendelse model, der kort forklarer, at den algoritme, der kan være begrænset af ansigt, størrelse, orientering eller dårlig belysning.
Billede: Google-Kort Model
Brugere kan læse om modellens output. ydeevne og begrænsninger. For eksempel, face detection model, der kort forklarer, at den algoritme, der kan være begrænset af ansigt, størrelse, orientering eller dårlig belysning.
Den nye værktøjer og funktioner, meddelte i dag, er en del af Googles forsøg på at bevise, at det holder sig til sin AI-principper, som kræver mere gennemsigtighed i udviklingen af den teknologi.
Tidligere dette år, selskabet opløst sin en-uge-gamle AI etik bestyrelsen, som blev skabt til at overvåge dens brug af kunstig intelligens.
Innovation
Overkommelige gaver: Top tech, gadgets for under $100
Endnu mere underligt, men super nyttige gadgets
10 store gaver til hacker i dit liv
Armageddon: Kan tech bruges til at bryde op en asteroide? (ZDNet YouTube)
Japanske flyselskab ønsker robotter til at rejse i dit sted (CNET)
Problemet med AI? Folk (TechRepublic)
Relaterede Emner:
Cloud
Digital Transformation
CXO
Tingenes Internet
Innovation
Virksomhedens Software
| November 21, 2019 — 12:47 GMT (12:47 GMT)
| Emne: Kunstig Intelligens