Google nuova IA, di uno strumento che può aiutare a decodificare i misteriosi algoritmi che decidono tutto

0
179

Daphne Leprince-Ringuet

Da Daphne Leprince-Ringuet

| 21 novembre 2019 — 12:47 GMT (le 12:47 GMT)

| Argomento: Intelligenza Artificiale

IBM lancia anti-bias kit di strumenti per aiutare le aziende a gestire la distribuzione AI
Bias di rilevamento e la scatola nera trasparenza è la limitazione AI distribuzioni su larga scala, sostiene IBM.
Leggi di più: https://zd.net/2Oxdguc

Mentre la maggior parte delle persone venire attraverso algoritmi di ogni giorno, non molti possono affermare che essi realmente capire come effettivamente AI lavori. Un nuovo strumento presentato da Google, tuttavia, spera di aiutare i comuni esseri umani di comprendere le complessità del machine learning.

Soprannominato “Spiegabile AI”, la funzione promette di fare esattamente ciò che il suo nome descrive: per spiegare agli utenti come e perché una macchina-modello di apprendimento raggiunge le sue conclusioni.

Per farlo, la spiegazione strumento di quantificare quanto ogni funzione del set di dati ha contribuito al risultato dell’algoritmo. Ogni fattore di dati avrà un punteggio che riflette quanto ha influenzato la macchina-modello di apprendimento.

VEDI: Come implementare l’IA e il machine learning (ZDNet relazione speciale) | Scaricare il report in formato PDF (TechRepublic)

Gli utenti possono tirare fuori con un punteggio di capire perché un dato algoritmo raggiunto una particolare decisione. Per esempio, nel caso di un modello che decide se approvare o meno qualcuno per un prestito, Spiegabile AI vi mostra il saldo di conto e punteggio di credito come il più decisivo dei dati.

Introducendo la nuova funzionalità di Google Prossimo evento a Londra, il CEO di Google Cloud, Thomas Kurian, ha detto: “Se stai usando IA di credit scoring, si vuole essere in grado di capire perché il modello respinto un modello particolare e accettato un altro.”

“Spiegabile AI consente, come un cliente che utilizza l’IA in un’azienda di processo, per capire perché l’IA infrastrutture generato un risultato particolare,” ha detto.

Il che spiega strumento può essere utilizzato per l’apprendimento automatico di modelli ospitato su Google AutoML Tabelle e Cloud IA Piattaforma di Stima.

Google aveva già preso misure per rendere algoritmi più trasparente. Lo scorso anno, ha lanciato il Tool per gli sviluppatori per la visualizzazione e la sonda di set di dati durante il lavoro con l’azienda AI platform.

Da quantificare i dati di fattori, che Spiegano AI sblocca ulteriori approfondimenti, così come quelle intuizioni leggibile per più utenti.

“È possibile associare AI Spiegazioni con il nostro what-If strumento per ottenere un quadro completo del vostro modello di comportamento,” ha detto Tracy Frey, direttore della strategia di Google Cloud.

In alcuni settori, come la sanità, migliorare la trasparenza dell’IA, sarebbe particolarmente utile.

Nel caso di un algoritmo programmato per diagnosticare alcune malattie, per esempio, si potrebbe consentire ai medici di visualizzare i sintomi raccolti dal modello, per rendere la sua decisione, e verificare che tali sintomi non sono falsi positivi o segni di malattie diverse.

La società ha anche annunciato che sta per lanciare un nuovo concetto di quello che chiama un “modello di carte” – brevi documenti che forniscono un batter d’occhio informazioni su particolari algoritmi.

VEDI: Google Contact Center AI generalmente disponibile

I documenti sono essenzialmente una carta d’identità per l’apprendimento automatico, compresi i dettagli pratici di un modello di prestazioni e limitazioni.

Secondo la società, questo “aiutare gli sviluppatori a prendere decisioni migliori su quali modelli utilizzare e per quale scopo e come distribuirli in modo responsabile.”

Due esempi di schede di modello sono già stati pubblicati da Google fornisce i dettagli di un algoritmo di face detection e un oggetto algoritmo di rilevamento.

google-face-detection.png

Il face detection modello di scheda spiega che l’algoritmo può essere limitata dalla faccia dimensioni, orientamento o di scarsa illuminazione.

Immagine: Google Schede Di Modello

Gli utenti possono leggere su di output del modello. le prestazioni e i limiti. Per esempio, il rilevamento del volto del modello di scheda spiega che l’algoritmo può essere limitata dalla faccia dimensioni, orientamento o di scarsa illuminazione.

I nuovi strumenti e funzionalità annunciate oggi sono parte di Google tenta di dimostrare che è fedele ai suoi AI principi, che chiedono più trasparenza nello sviluppo delle tecnologie.

All’inizio di quest’anno, la società ha sciolto il suo one-settimana-vecchio IA commissione etica, che è stato creato per monitorare il suo uso di intelligenza artificiale.

L’innovazione

A prezzi accessibili doni: Top tech, gadget per meno di $100

Ancora più strano, ma super gadget utili

10 grandi doni per gli hacker nella tua vita

Armageddon: Può tech essere utilizzato per rompere un asteroide? (ZDNet YouTube)

Giapponese compagnia aerea vogliono robot per viaggiare luogo (CNET)

Il problema con AI? Persone (TechRepublic)

Argomenti Correlati:

Cloud

La Trasformazione Digitale

CXO

Internet delle Cose

L’innovazione

Enterprise Software

Daphne Leprince-Ringuet

Da Daphne Leprince-Ringuet

| 21 novembre 2019 — 12:47 GMT (le 12:47 GMT)

| Argomento: Intelligenza Artificiale