Kunstig intelligens og privatliv engineering: Hvorfor er det, der betyder noget NU

0
175

Som kunstig intelligens halvt siden formere, virksomheder og regeringer er at samle enorme datasæt til at brødføde deres AI initiativer.

Selv om privatlivets fred er ikke et nyt begreb inden for it, væksten af aggregerede data forstørres, personlige udfordringer og fører til ekstrem etiske risici såsom utilsigtet bygning forudindtaget AI systemer, blandt mange andre.

Privatlivets fred og kunstig intelligens, er i både komplekse emner. Der er ingen nemme eller simple svar, fordi løsninger ligger på skiftende og konfliktfyldt skæringspunktet mellem teknologi, kommerciel fortjeneste, den offentlige orden, og endda individuelle og kulturelle holdninger.

I betragtning af denne kompleksitet, at jeg har inviteret to fantastiske mennesker at dele deres tanker i en CXOTALK samtale om beskyttelse af privatlivets fred og AI. Se video indlejret ovenfor for at deltage i hele den diskussion, der var en Episode 229 af CXOTALK.

Michelle Dennedy er Chief Privacy Officer hos Cisco. Hun er advokat, forfatter af bogen Privatlivets fred Engineer ‘ s Manifest, og en af verdens mest respekterede eksperter på privatlivets fred engineering.

David Bray er Chef Ventures Officer ved National Geospatial-Intelligence Agency. Tidligere var han en Eisenhower Kolleger og Chief Information Officer i Federal Communications Commission. David er en af de førende change agents i USA føderale regering.

Her er redigerede uddrag fra samtalen. Du kan læse hele transskriberingen CXOTALK site.

Hvad er privatlivets fred engineering?

Michelle Dennedy: Privacy by Design er et politisk begreb, der blev hængende for ti år i netværk og kommer ud af Ontario, Canada med en kvinde ved navn Ann Cavoukian, der var kommissær ved den tid af Ontario.

Men i 2010 introducerede vi begrebet i Data Kommissær ‘ s Konference i Jerusalem, og over 120 forskellige lande enige om, at vi bør overveje privatlivets fred i den bygge, i design. Det betyder ikke blot, at de tekniske redskaber, du kan købe og forbruge, [men] hvordan du operationalisere, hvordan du kører din virksomhed, hvordan du organiserer omkring din virksomhed.

Og kom ned til erhvervslivet på min side, af den verden, privatlivets fred engineering er at bruge de teknikker, der af tekniske, sociale, den proceduremæssige, den uddannelse, værktøjer, vi har til rådighed, og i den mest grundlæggende følelse af teknik til at sige, “Hvad er det routinized systemer? Hvad er rammerne? Hvad er de teknikker, som vi bruger til at mobilisere privacy-fremmende teknologier, der eksisterer i dag, og se på tværs af den behandling livscyklus til at bygge i og løse for personlige udfordringer?”

Og jeg vil dobbelt-klik på ordet “fred.” Privatlivets fred i den funktionelle forstand, er de godkendte behandling af personligt identificerbare data ved hjælp fair, moralske, juridiske og etiske standarder. Så, vi bringer hver enkelt af disse ting, og siger, “Hvad er funktionaliserede værktøjer, som vi kan bruge til at fremme, at hele maskineriet og kompliceret bevægelse af personligt identificerbare oplysninger på tværs af netværk med alle disse andre faktorer, der er bygget i?” [Det er] hvis jeg kan ændre det stof ned her, og vores hold kan bygge dette på, og gøre det så routinized og usynlig, så resten af verden kan arbejde på mere nuancerede lag, der er også vanskelig og udfordrende.

Hvor er privatlivets fred mødes med AI?

David Bray: Hvad Michelle sagde om at bygge videre og tænker om netværk bliver til, hvor vi er på i dag, nu i 2017. Det handler ikke kun om de enkelte maskiner, der gør korrelationer; det handler om forskellige data-feeds streaming fra forskellige netværk, hvor du kan gøre en korrelation, at den pågældende ikke har givet samtykke til med […] personligt identificerbare oplysninger.

For AI, det er bare lidt af det næste lag. Vi har gået fra de enkelte maskiner, netværk, at nu skal vi have noget, der er på udkig efter mønstre på en hidtil uset evne, der ved slutningen af dagen, er det stadig går tilbage til, hvad der kommer fra, hvad den enkelte har givet sit samtykke til? Hvad er der afleveres af disse maskiner? Hvad er disse data streams?

En af de ting jeg lærte, da jeg var i Australien såvel som i Taiwan som en Eisenhower Kolleger; det er et spørgsmål om, “Hvad kan vi gøre for at adskille denne indstilling for vores privatliv tilladelser og hvad vi ønsker at være færdig med vores data, hvor data er gemt?” Fordi lige nu, vi har en mere forsimplet model af, “Vi co-find på samme platform,” og så måske får du en bruger aftale, der er tredive eller fyrre sider lang, og du behøver ikke læse det. Enten acceptere eller ikke acceptere, hvis du ikke kan acceptere, at du ikke får den service, og der er ingen mulighed for at sige, “jeg er villig til at få det brugt i denne sammenhæng, men ikke disse sammenhænge.” Og jeg tror, det betyder Ai kommer til at rejse spørgsmål om baggrunden for, hvornår vi skal begynde at bruge disse data streams.

Hvordan er “kontekst”, der passer ind i dette?

Michelle Dennedy: Vi skrev en bog for et par år siden kaldte “Privatlivets fred Engineer’ s Manifest,” og i det manifest, teknikker, som vi har brugt er baseret på en virkelig grundlæggende datalogi.

Før vi kaldte det “computer science” vi plejede at kalde det “statistik og matematik.” Men selv tænker geometriske bevis for, at intet sker uden sammenhæng. Og så, den tanke, at du har et værktøj, der er relevante for alt har bare aldrig har arbejdet i teknik. Du ville ikke bygge en bro med bare negle og ikke bruge hamre. Ville du ikke tænke på at sætte noget i den jungle, som var bygget på samme måde som en struktur, som du ville bygge i Arizona.

Så, tænker brug-tilfælde og sammenhænge med humane data, og skabe menneskelige erfaringer, er alt. Og det gør en masse forstand. Hvis du tænker over, hvordan vi er primært reguleret i USA, vil vi lade bankfolk fra for et øjeblik, fordi de er forskellige kontorer, men Federal Communications Commission, Federal Trade Commission, så vi tænker om kommercielle interesser, og vi tænker om kommunikation. Og kommunikation er vildt ufuldkommen hvorfor? Fordi det er mennesker gør alle de kommunikerer!

Så, enhver tid du taler om noget, der er så menneskelige og humane som behandling af oplysninger, der påvirker liv og kulturer og handel med mennesker, du er nødt til at virkelig over-drej på sammenhæng. Det betyder ikke, at alle får en specialitet ting, men det betyder ikke, at alle får en bil i hvilken som helst farve, som de vil, så længe det er sort.

David Bray: Og jeg ønsker at uddybe, hvad Michelle siger. Da jeg ankom til FCC-i slutningen af 2013, var vi betale for folk til at arbejde frivilligt, hvad deres bredbåndshastigheder, der var i visse, skal du vælge områder, fordi vi ønskede at se, at de var få den bredbåndshastighed, som de blev lovet. Og der koster det offentlige penge, og det tog en masse arbejde, og så vi effektivt ønskede at rulle op en app, der kunne give folk mulighed for at crowdsource og hvis de ønskede at se, hvad deres resultat var, og dele det frivilligt med FCC. I erkendelse af, at hvis jeg stod op og sagde, “Hej! Jeg er med den AMERIKANSKE regering! Vil du gerne have en app […] til din bredbåndsforbindelse?” Måske ikke så vellykket.

Men ved hjælp af de principper, som du sagde om beskyttelse af personlige oplysninger ingeniør-og privatliv design, en, vi har lavet den app er open source, så folk kunne se på koden. To, gjorde vi det så, når vi designet kode, det gjorde ikke fange din IP-adresse, og det vidste ikke hvem du var i en fem-mile radius. Så, det gav nogle uskarphed til din konkrete, specifikke placering, men det var stadig god nok til at informere om, hvorvidt eller ikke bredbånd hastighed er som ønsket.

Og når vi gjorde det, også til vores vilkår og betingelser, var der kun to sider lang; som, igen, vi faldt spidsrod og sagde, “Hvornår var sidste gang du blev enige om at noget på internettet, der var kun to sider lange?” Rullende ud, som et resultat, endte med at blive den fjerde mest downloadede app bag Google Chrome, fordi der var folk der kiggede på koden, og sagde, “Ja, sandelig, de har privacy by design.”

Og så tror jeg, at dette princip om privacy by design gør den erkendelse, at en, det er ikke kun kryptering, men så to, det er ikke bare den juridiske aftaler. Kan du vise noget, der giver folk har tillid til, at hvad du gør med deres data er eksplicit, hvad de har givet samtykke til? At, til mig, er hvad der er behov for AI [der] er, kan vi gøre det samme, som viser dig, hvad der sker med dine data, og giver dig en mulighed for at veje ind på, hvorvidt du vil det eller ej?

Gør AI kræver et nyt niveau af informationssikkerhed?

David Bray: Så, jeg vil give enkle svar, der er “Ja”. Og nu vil jeg gå videre end det.

Så, at flytte tilbage til det første, hvad Michelle sagde, jeg synes, det er skønt at pakke ud, at AI er mange forskellige ting. Det er ikke en monolitisk ting, og det er værd at afgøre, taler vi om blot machine learning på hastighed? Vi taler om neurale netværk? Dette er vigtigt, for fem år siden, for ti år siden, femten år siden, den enorme mængde af data, der var til rådighed for du var ikke i nærheden af hvad det er lige nu, og lad alene af, hvad det vil være i fem år.

Hvis vi er lige nu på omkring 20 milliarder netværksenheder på overfladen af planeten i forhold til 7,3 milliarder mennesker, skøn ligger på mellem 75 og 300 millioner enheder i mindre end fem år. Og så tror jeg vi begynder at have disse øgede bekymringer om etik og sikkerhed af data. Scott ‘ s spørgsmål: fordi det simpelthen, at vi er instrumenting os selv, vi er instrumenting vores biler, vores kroppe, vores hjem, og det stiller enorme mængder af spørgsmål om, hvad maskiner kan gøre dette data stream. Det er også kun den store kapacitet. Jeg mener, evnen til at gøre petaflops og nu exaflops-og ud over, mener jeg, at det var bare ikke til stede for ti år siden.

Så med det sagt, er spørgsmålet om sikkerhed. Det er sikkerhed, men også vi kan få brug for et nyt ord. Jeg hørte i Skandinavien, de taler om integritet og blive integreret. Det handler virkelig om at integriteten af, at data: Har du givet dit samtykke til, at det bruges til et bestemt formål? Så, jeg tror, at AI kunne spille en rolle i at gøre indtryk af, om data bliver behandlet sikkert.

Fordi hele udfordringen er lige nu, for de fleste af den behandling, vi har til at dekryptere det på et tidspunkt for at begynde at gøre følelse af det og re-kryptere det igen. Men også, er det at blive behandlet med integritet og integreret til den enkelte? Har den enkelte har givet samtykke?

Og så en af de ting op, når jeg var i samtaler i Taiwan er spørgsmålet, “kunne vi ikke bare har en open-source AI, hvor vi giver vores tilladelse og vores samtykke til, at AI til at have vores data, der skal anvendes til bestemte formål?” For eksempel, det kunne sige, “Okay, jamen jeg kan forstå, du har et datasæt, der serveres med denne platform, vil denne anden platform end her, og denne platform over her. Er du villig til at have, at data samles for at forbedre din husholdning?” Og du kan sige “nej”. Han siger, “Okay. Men ville du være villig til at gøre det, hvis din puls falder under et bestemt niveau, og du er i en bilulykke?” Og du kan sige “ja”.

Og så, den eneste måde, jeg tror, at vi nogensinde kunne eventuelt gøre sammenhæng er ikke at gå ned en række tjeklister og forsøger at kontrollere alle mulige scenarier. Det er nødt til at være en maskine, der kan tale til os og har samtaler om, hvad vi gør og ønsker nu at have gjort med vores data.

Hvad med risikoen for at skabe bias i AI?

Michelle Dennedy: Madeleine Clare Elish skrev et papir, der kaldes “Moralsk deformationszoner,” og jeg elsker selv det visuelle i det. Hvis du synes om biler og hvad vi vide om mennesker køre bil, de smadre ind i hinanden i visse kendte måder. Og den måde, at vi har fået bedre og sænket dødsfald af kendte bil går ned, er ved hjælp af fysik og geometri til at designe et hulrum i forskellige dele af bilen, hvor der er ingenting, der kommer til at eksplodere eller bryde i brand, etc. som en virkning deformationszone. Så alle de kræfter og den energi, der går væk fra passageren og ind i den fysiske deformationszone af bilen.

Madeleine arbejder på at præcis, hvad vi taler om. Vi ved ikke hvornår det er ubevidste eller utilsigtede skævhed, fordi det er ubevidste eller utilsigtede skævhed. Men, vi kan design-etiske deformationszoner, hvor vi har ting som test for fodring, ligesom vi gør med sandboxing eller vi gør med dummy-data, før vi går live i andre typer af IT-systemer. Vi kan vælge at bruge AI teknologi og tilføje i kendte problemer i forbindelse med omskoling af denne database.

Jeg vil give dig Watson som et eksempel. Watson er ikke en ting. Watson er en helt. Den måde, at Watson-computeren slå Fare deltagere er ved at lære Wikipedia. Så ved behandling af masse mængder af opgivne data, du kender, i betragtning af, hvad niveauer af realisme, der mønster på.

Hvad Watson ikke kan gøre, er selektivt glemme. Så, din hjerne og din neurale netværk er bedre til at glemme data og ignorerer data, end det er for behandling af data. Vi forsøger at gøre vores computer simulere en hjerne, bortset fra, at hjerner er gode til at glemme. AI er ikke god til det, endnu. Så kan du sætte den momskode, som ville fylde tre balsale, hvis du printe den ud på papir. Du kan fodre med det i en AI type af datasæt, og du kan træne det, i hvad er kendt mængder af penge, som man skal betale i en given kontekst?

Hvad du ikke kan gøre, og hvad jeg synes ville være spændende, hvis vi gjorde, er, hvis vi kunne skændes data fra alle snydere. Hvad er de mest almindelige snyder? Hvordan kan vi snyde? Og vi kender dem, der bliver fanget, men hvad vigtigere er, hvordan […] få fanget? Der er ting, hvor jeg tror, du har brug for til at designe et moralsk og etisk deformationszone og siger, “Hvordan kan folk bruge aktivt systemer?”

Begrebet ghost in the machine: hvordan maskiner, der er trænet med data over tid opleve en forringelse? Enten de er ikke trække fra datasæt, fordi udstyret er bare … Du ved, er de ikke læser båndstationer længere, eller er det ikke bliver fodret med friske data, eller vi er ikke slette gamle data. Der er en masse forskellige teknikker, som jeg tror, har endnu til at blive indsat med skala, som jeg tror, vi er nødt til at overveje før vi er alt for afhængige er [AI], uden menneskelig kontrol og balance, og behandles kontrol og balance.

Hvordan kan vi løse denne bias problem?

David Bray: jeg tror, det kommer til at være en trinvis tilgang. Som udgangspunkt, har du næsten nødt til at have hvad der svarer til en menneskelig ombudsmand – en serie af mennesker, der kigger på, hvad maskinen gør, i forhold til de data, der blev fodret.

Og du kan gøre dette i flere sammenhænge. Det kunne bare være internt i virksomheden, og det er bare at sørge for, at, hvad maskinen er ved at blive fed, er der ikke fører det til beslutninger, der er grusomme eller fejlbehæftede.

Eller, hvis du ønsker at få offentlighedens tillid til, at dele nogle af de data, og deler nogle af de resultater, men abstrakt noget, der er knyttet til en enkelt person, og bare siger, “Disse typer af mennesker ansøgt om lån. Disse typer af lån, der blev uddelt,” så kan sørge for, at maskinen er ikke baseret på nogle fordomme, som vi ikke kender.

På længere sigt, men har du fået til at skrive, at ombudsmanden. Vi er nødt til at være i stand til at konstruere en AI til at tjene som en ombudsmand for AI i sig selv.

Så virkelig, hvad jeg ville se, er ikke bare AI som kun et monolitisk system, kan det være én, der træffer beslutningerne, og derefter en anden, der tjener som Jiminy Cricket, der siger, “Det giver ikke mening. Disse mennesker er snyd,” og det er at påpege de fejl og mangler i systemet så godt. Så har vi brug for det svarer til en Jiminy Cricket for AI.

CXOTALK bringer dig verdens mest innovative virksomhedsledere, forfattere og analytikere for en dybdegående diskussion utilgængelige steder. Nyd alle vores serier, og download podcast fra iTunes og Spreaker.