Salesforce aggiunge AI bias di modulo al punto di partenza

0
177

Come l’etica in grado di combattere contro pregiudizi in AI
ZDNet Tonya Sala colloqui a Nancy Giordano, strategico futurista e fondatore di Giocare Grandi Inc., per saperne di più circa il ruolo che l’etica giocare in AI per combattere i pregiudizi.

Salesforce è la creazione di moduli sulla sua Trailhead developer istruzione piattaforma per responsabile di intelligenza artificiale.

La scommessa è che un basso-codice di strumenti di sviluppo, significa che più della tecnologia e del business professionisti saranno in grado di mettere insieme algoritmi e avrai bisogno di capire come farlo in modo responsabile.

AI etica, la polarizzazione e la trasparenza è diventata un tema caldo in tutto il settore della tecnologia come uno stuolo di fornitori di affrontare il problema. La preoccupazione più grande è che i singoli algoritmi di per sé non può avere pregiudizi, ma di acquisire quando combinato con altri modelli.

Kathy Baxter, architetto etico AI la pratica a Salesforce, ha detto che il punto di partenza moduli sono stati progettati per rispondere a dipendenti, clienti e partner che lavoreranno con Einstein e l’utilizzo di vari modelli.

A parte educare il Salesforce ecosistema, punto di partenza moduli possono anche informare le future caratteristiche di costruire in Einstein, che ha già un po ‘ AI anti-bias strumenti built-in con più piloti. “Stiamo cercando di fare, aiutare i clienti a capire che cosa è un modello, spiegare che cosa è stato fatto e comunicare come si sta lavorando”, ha detto Baxter.

Ha aggiunto che non ci saranno più le aggiunte al punto di partenza focalizzata su AI etica e prevenire pregiudizi.

Bias è un concetto critico AI e da alcuni studiosi hanno chiamato per più di auto-governo e di regolamento. In aggiunta, i giocatori del settore come IBM hanno spinto per una maggiore trasparenza e un livello di software per monitorare gli algoritmi per vedere come lavorare insieme per produrre bias. Nel frattempo, le imprese si sforzano per spiegabile AI. Google dice che si rivolgerà AI, macchina per il modello di apprendimento del bias con tecnologia chiamata TCAV.

In un post sul blog, Salesforce Baxter notato:

Come accedere ai si allarga e la profondità del suo impatto comincia a rivelare se stesso, siamo di fronte a nuove domande su come garantire il futuro dell’AI è responsabile, responsabile, equo e solidale e, anche quando è fatta da persone senza formazione tecnica o AI perizia. È fondamentale che chiunque di costruzione AI considerare l’effetto domino che AI-driven risultati possono avere sulle persone e della società, inteso o non. Il primo passo nella costruzione di responsabile AI soluzioni è quello di capire le distorsioni che possono nascondersi all’interno dei suoi modelli e i dati di allenamento, una grande sfida.

Il modulo IA, soprannominato Responsabile della Creazione dell’Intelligenza Artificiale, sul punto di partenza:

Etica e umana, l’utilizzo della tecnologia;la Comprensione AI;Riconoscendo bias in AI;Rimozione di esclusione dai dati e algoritmi.

La cosa interessante di Salesforce modulo è che AI crash course è progettato per andare ben al di là dei dati scienza e professionisti della creatività e della linea di business manager.

Primer: che Cosa è l’IA? | Che cosa è macchina di apprendimento? | Che cosa è un profondo apprendimento? | Ciò che è artificiale intelligenza generale?

Salesforce argomento è che non si può democratizzare AI senza pensare attraverso le competenze ad esso associati.

Il modulo affronta le sfide con pregiudizi e facendo le giuste decisioni e cosa succede quando il dataset di grandi dimensioni in scala. Salesforce modulo comprende anche che i vari sapori di bias, come associazione, di automazione, di conferma, sociali e di interazione bias.

Ecco un semplice esempio di sopravvivenza di polarizzazione:

trailhead-ai-bias.png

Più AI bias di leadership di pensiero:

Algoritmi bisogno di trasparenza, governance per evitare conseguenze non intenzionali e di rischio
ZDNet Larry Dignan prese con la Wharton professore di Kartik Hosanagar per parlare del suo libro “Un Uomo Guida all’Intelligenza delle Macchine” e i suoi argomenti per la trasparenza e il regolamento per gli algoritmi di intelligenza artificiale che è e ciò che le aziende devono fare per evitare conseguenze indesiderate.

Riconoscendo la necessità di controllare il bias in algoritmi
Kathy Klotz-Ospite, speaker, autore di affari e di comico, racconta Tonya Hall sull’importanza di garantire e controllare il bias in algoritmi.

Storie correlate:

Enterprise AI 2019: che Cosa è necessario knowSurvey: Tech leader con cautela approccio intelligenza artificiale, machine learning projectsFree scarica il PDF di: Gestire l’IA e ML in enterpriseEnterprise AI e machine learning: il Confronto tra le aziende e applicationsThe costi e ROI di attuazione AI in enterpriseMachine apprendimento e l’architettura delle informazioni: il Successo factorsCIO Giuria: il 92 per cento di tecnologia leader hanno nessuna politica eticamente tramite AI

Argomenti Correlati:

Cloud

La Trasformazione Digitale

CXO

Internet delle Cose

L’innovazione

Enterprise Software