Salesforce lägger till AI bias modul för att Parkeringsplatsen

0
157

Hur etik kan bekämpa fördomar i AI
ZDNet ‘ s Tonya Hall berättar att Nancy Giordano, strategiska futuristiska och grundare av Spela Stor Inc., för att lära sig mer om den roll som etik spela i AI för att bekämpa fördomar.

Salesforce är att skapa moduler på sin Trailhead utvecklare utbildning plattform för ansvarsfullt artificiell intelligens.

Satsningen är att låg-code developer tools kommer att innebära att mer teknik och affärsmän kommer att kunna sätta ihop algoritmer och de behöver för att förstå hur man gör det på ett ansvarsfullt sätt.

AI etik, bias och transparens har blivit ett hett ämne runt it-sektorn som en uppsjö av ledande leverantörer hantera problemet. Den största oro är att enskilda algoritmer själva kanske inte har fördomar, men skaffa den när den kombineras med andra modeller.

Kathy Baxter, arkitekt av etiska AI praxis på Salesforce, sade Trailhead moduler för att hantera anställda, kunder och partners som kommer att arbeta med Einstein och med hjälp av olika modeller.

Bortsett från att utbilda Salesforce ekosystem, Trailhead moduler kan också ligga till grund för framtida funktioner att bygga in Einstein, som redan har en viss AI anti-bias verktyg inbyggda med mer piloter. “Vi försöker att hjälpa kunder att förstå vad som finns i en modell för att förklara vad som görs och förmedla hur det är att arbeta”, säger Baxter.

Hon tillade att det kommer att vara flera tillägg för att Parkeringsplatsen fokuserade på AI och etik är att förebygga fördomar.

Bias är ett avgörande begrepp inom AI och vissa akademiker har efterlyst mer själv-styrning och reglering. Dessutom branschens aktörer såsom IBM har drivit på för mer öppenhet och ett lager av programvara för att övervaka algoritmer för att se hur de arbetar tillsammans för att skapa fördomar. Samtidigt, företag strävar efter förklaras AI. Google säger att det kommer att ta itu med AI, machine learning model partiskhet med teknik som kallas TCAV.

I ett blogginlägg, Salesforce Baxter skrev:

Tillgång till AI vidgas och djupet av dess effekter börjar att avslöja sig själv, står vi inför nya frågor om hur man kan trygga framtiden för AI är ansvarig, ansvarsfullt och rättvist — även när det är byggt av människor utan teknisk utbildning eller AI-kompetens. Det är viktigt att vem som helst bygga AI överväga domino-effekt som AI-styrda resultat kan ha på människor och samhälle, som är avsedda eller inte. Det första steget i att bygga ansvarig AI-lösningar är att förstå de fördomar som lurar inom sina modeller och data utbildning, en stor utmaning i sin egen rätt.

AI-modul, dubbade som Ansvarar Skapandet av Artificiell Intelligens, på Parkeringsplatsen kommer att omfatta:

Etik och människans användning av teknik, Förståelse av AI, Erkänner bias i AI, ta Bort utestängning från data och algoritmer.

Vad som är intressant med Salesforce-modulen är att AI krasch kurs är konstruerad för att gå långt utöver data vetenskap och i de kreativa fördelar och raden av chefer i näringslivet.

Grundfärger: Vad är AI? | Vad är lärande? | Vad är djupt lärande? | Vad är artificiell generell intelligens?

Salesforce argument är att du inte kan demokratisera AI utan att tänka igenom de skyldigheter som är förknippade med det.

Modul täcker de utmaningarna med fördomar och gör rättvist beslut och vad som händer när stora datamängder skala. Salesforce-modulen omfattar också att olika varianter av fördomar som förening, automation, bekräftelse, samhälleliga och interaktion bias.

Här är ett enkelt exempel på survival bias:

trailhead-ai-bias.png

Mer AI bias trodde ledarskap:

Algoritmer kommer behovet av insyn styrning för att undvika oavsiktliga konsekvenser och risk
ZDNet Larry Dignan fångas upp med Wharton och professor Kartik Hosanagar att prata om sin bok, “En Mänsklig Guide till Maskinen Intelligens” och hans argument för öppenhet och reglering för algoritmer och artificiell intelligens och vad företag behöver göra för att undvika oönskade konsekvenser.

Erkänner behovet av att kontrollera för fel på algoritmer
Kathy Klotz-Gäst talare, författare och företag komiker, berättar Tonya Hall om vikten av att säkerställa och kontrollera för bias i algoritmer.

Relaterade artiklar:

Företaget AI 2019: Vad du behöver för att knowSurvey: Teknisk ledare försiktigt tillvägagångssätt artificiell intelligens och maskininlärning projectsFree PDF ladda ner: Hantera AI och ML i enterpriseEnterprise AI och lärande: att Jämföra företag och applicationsThe verkliga kostnaderna och INVESTERINGEN i genomförandet av AI i enterpriseMachine lärande och informations-arkitektur: Framgång factorsCIO Juryn: 92 procent av teknisk ledare har ingen politik för etiskt hjälp av AI

Relaterade Ämnen:

Cloud

Digital Omvandling

CXO

Sakernas Internet

Innovation

Affärssystem