Google ‘ s nieuwe AI-tool kan helpen bij het decoderen van de mysterieuze algoritmes die bepalen alles

0
149

Daphne Leprince-Ringuet

Door Daphne Leprince-Ringuet

| 21 November 2019 — 12:47 GMT (12:47 GMT)

| Onderwerp: Kunstmatige Intelligentie

IBM lanceert anti-bias toolkit voor bedrijven te helpen bij het beheren van AI implementatie
Bias detectie en black box transparantie is het beperken van de AI-implementaties op grote schaal, stelt IBM.
Lees meer: https://zd.net/2Oxdguc

Terwijl de meeste mensen komen over algoritmen elke dag, niet dat velen beweren dat ze echt begrijpen hoe de AI echt werkt. Een nieuwe tool onthuld door Google, maar hoopt op hulp common mensen begrijpen de complexiteit van machine learning.

De naam “Verklaarbaar AI”, de functie belooft te doen precies wat de naam omschrijft: om uit te leggen aan gebruikers hoe en waarom van een machine-leren-model bereikt zijn conclusies.

Om dit te doen, de uitleg tool zal kwantificeren hoeveel elke functie in de dataset hebben bijgedragen aan de uitkomst van het algoritme. Elk data-factor een score weerspiegelt hoeveel het beïnvloed de machine-leren-model.

ZIE: het implementeren van AI en machine learning (ZDNet speciale rapport) | Download het rapport als PDF (TechRepublic)

Gebruikers kunnen trekken uit die score om te begrijpen waarom een bepaald algoritme bereikt een bepaalde beslissing. Bijvoorbeeld, in het geval van een model die beslist of er al dan niet goed te keuren iemand voor een lening, Verklaarbaar AI zal te zien zijn rekening en credit score als de meest doorslaggevende gegevens.

De invoering van de nieuwe functie in Google ‘ s Volgende evenement in Londen, de CEO van Google Cloud, Thomas Kurian, zei: “Als je met de AI voor credit scoring, u wilt in staat zijn om te begrijpen waarom het model wordt geweigerd een bepaald model en geaccepteerd een ander.”

“Verklaarbaar AI kunt u, als klant, die met behulp van AI in een enterprise business proces, om te begrijpen waarom de AI infrastructuur gegenereerd een bepaalde uitkomst,” zei hij.

De uitleg van de tool kan nu worden gebruikt voor machine-leren-modellen gehost op Google AutoML Tabellen en Cloud-AI Platform Voorspelling.

Google had eerder genomen stappen om algoritmen meer transparant. Vorig jaar lanceerde de Wat-Als Hulpmiddel voor ontwikkelaars om te visualiseren en sonde datasets bij het werken op het bedrijf AI-platform.

Door het kwantificeren van gegevens factoren, Verklaarbaar AI ontgrendelt verdere inzichten, evenals het maken van deze inzichten leesbaar voor meer gebruikers.

“Je kunt een paar AI Uitleg met onze Wat-Als hulpmiddel voor het verkrijgen van een compleet beeld van uw model is gedrag,” zei Tracy Frey, directeur strategie bij Google cloudprinter.

In sommige vakgebieden, zoals de gezondheidszorg, het verbeteren van de transparantie van AI zou bijzonder nuttig zijn.

In het geval van een algoritme geprogrammeerd om de diagnose van bepaalde ziekten, bijvoorbeeld, het zou laten artsen visualiseren van de symptomen opgepikt door het model om een besluit te nemen, en controleer dat deze symptomen worden niet valse signalen of tekenen van verschillende kwalen.

Het bedrijf kondigde ook aan dat het lanceren van een nieuw concept van wat zij noemt de “model-kaarten” – korte documenten die module informatie over specifieke algoritmen.

ZIE: Google maakt Contact Center AI algemeen beschikbaar

De documenten zijn in wezen een ID-kaart voor machine learning, met inbegrip van de praktische details over een model s performance en beperkingen.

Volgens het bedrijf, zal dit “developers helpen betere beslissingen te nemen over wat modellen te gebruiken voor welk doel en hoe ze te implementeren op een verantwoorde manier.”

Twee voorbeelden van het model en de kaarten zijn al gepubliceerd door Google verstrekken van informatie over een face detection-algoritme en een object detection algoritme.

google-face-detection.png

De face detection model kaart legt uit dat het algoritme kan worden beperkt door het gezicht van de grootte, de oriëntatie of slechte verlichting.

Afbeelding: Google Model Kaarten

Gebruikers kunnen lezen over het model van de uitgangen. prestaties en beperkingen. Bijvoorbeeld, de face detection model kaart legt uit dat het algoritme kan worden beperkt door het gezicht van de grootte, de oriëntatie of slechte verlichting.

De nieuwe tools en functies kondigde vandaag zijn onderdeel van Google ‘ s pogingen om te bewijzen dat het vasthouden aan de AI-principes, die roep om meer transparantie in de ontwikkeling van de technologie.

Eerder dit jaar, is de vennootschap ontbonden zijn één-week-oude AI ethiek raad van bestuur, die gemaakt werd om toezicht te houden op de toepassing van kunstmatige intelligentie.

Innovatie

Betaalbare cadeaus: Top tech, gadgets voor onder de $100

Nog meer raar, maar super handige gadgets

10 grote giften voor de hacker in je leven

Armageddon: Kan tech worden gebruikt voor het breken van een asteroïde? (ZDNet YouTube)

De japanse luchtvaartmaatschappij wil robots te reizen in uw plaats (CNET)

Het probleem met AI? Mensen (TechRepublic)

Verwante Onderwerpen:

Cloud

Digitale Transformatie

CXO

Het Internet van Dingen

Innovatie

Enterprise Software

Daphne Leprince-Ringuet

Door Daphne Leprince-Ringuet

| 21 November 2019 — 12:47 GMT (12:47 GMT)

| Onderwerp: Kunstmatige Intelligentie