Come intelligenza artificiale cresce, le aziende e i governi stanno aggregando enormi insiemi di dati per alimentare la loro intelligenza artificiale iniziative.
Anche se la privacy non è un nuovo concetto di computing, la crescita dei dati aggregati ingrandisce privacy sfide e porta alle estreme rischi etici come involontariamente edificio polarizzato sistemi di intelligenza artificiale, tra molti altri.
Privacy e intelligenza artificiale sono entrambi argomenti complessi. Non ci sono facili o semplici risposte, perché le soluzioni si trovano presso lo spostamento e il conflitto di intersezione di tecnologia, il profitto commerciale, politica pubblica, e anche i singoli e gli atteggiamenti culturali.
Data questa complessità, ho invitato due persone brillanti con cui condividere i propri pensieri in un CXOTALK conversazione sulla privacy e AI. Guarda il video incorporato qui sopra per partecipare a tutta la discussione, che è stata Episodio 229 del CXOTALK.
Michelle Dennedy è il Chief Privacy Officer di Cisco. Lei è un avvocato, autore del libro La Privacy Ingegnere Manifesto, e uno dei più autorevoli esperti sulla privacy di ingegneria.
David Bray è il Capo Venture Officer presso la National Geospatial-Intelligence Agency. In precedenza, era un Eisenhower Compagni e Chief Information Officer presso la Commissione Federale delle Comunicazioni. David è uno dei principali agenti di cambiamento nel governo federale statunitense.
Qui sono a cura estratti dalla conversazione. Si può leggere la trascrizione integrale a CXOTALK sito.
Che cosa è la privacy di ingegneria?
Michelle Dennedy: “Privacy by Design” è un concetto politico che è stato appeso intorno per dieci anni in reti e il coming out di Ontario, in Canada, con una donna di nome Ann Cavoukian, che era il commissario, al momento dell’Ontario.
Ma nel 2010, abbiamo introdotto il concetto alla Data del Commissario Conferenza di Gerusalemme, e più di 120 paesi diversi convenuto, si dovrebbe considerare la privacy, nel costruire, nel design. Ciò significa che non solo gli strumenti tecnici che si acquista e consuma, [ma] come rendere operativo, come si esegue il vostro business; come si organizza intorno al vostro business.
E, di arrivare al lavoro sul mio lato del mondo, privacy engineering utilizza le tecniche del tecnico, il sociale, le modalità, gli strumenti di formazione che abbiamo a disposizione, e in senso più elementare di ingegneria a dire, “che Cosa sono le routinized sistemi? Quali sono i quadri? Quali sono le tecniche che usiamo per mobilitare privacy enhancing technologies che esistono oggi, e guardare attraverso il ciclo di vita dell’elaborazione di costruire e risolvere per la privacy sfide?”
E io fare doppio clic sulla parola “privacy”. Privacy, in senso funzionale, è autorizzato il trattamento dei dati personali di correttezza, morali, legali ed etiche. Così, portiamo giù ogni uno di quelle cose e a dire, “che Cosa sono funzionalizzati di strumenti che possiamo utilizzare per promuovere tutta la panoplia e complicato circolazione dei dati personali tra le reti con tutti questi altri fattori integrato?” [E’] se io posso cambiare il tessuto verso il basso qui, e il nostro team può costruire questo e fare in modo che routinized e invisibile, e quindi il resto del mondo può lavorare su più sfumata strati che sono anche difficili e impegnative.
Da dove viene la privacy si intersecano con AI?
David Bray: che Cosa Michelle ha detto circa la costruzione di là e pensare reti arriva al punto in cui siamo oggi, nel 2017. Non è solo questione di singole macchine che correlazioni; si tratta di diversi feed di dati in streaming da diverse reti di cui si potrebbe fare una correlazione che l’individuo non ha dato il consenso per […] informazioni personalmente identificabili.
Per l’IA, è solo una sorta di strato successivo. Siamo passati da singole macchine, reti, per ora abbiamo qualcosa che è alla ricerca di schemi di una capacità senza precedenti, che alla fine della giornata, si va ancora indietro a ciò che viene da ciò che l’individuo ha dato il consenso? Che cosa è essere passati da queste macchine? Che cosa sono quei flussi di dati?
Una delle cose che ho imparato quando ero in Australia, nonché in Taiwan come Eisenhower Compagni; è una domanda su “che Cosa possiamo fare per separare questa impostazione per la nostra privacy e autorizzazioni di quello che vogliamo fare con i nostri dati, da dove vengono memorizzati i dati?” Perché adesso abbiamo questo più semplice modello di “co-individuare, sulla stessa piattaforma,” e poi, magari, si ottiene un contratto per l’utente finale che trenta o quaranta pagine, e non lo leggi. Accettare o non accettare; se non si accetta, non si ottiene il servizio, e non c’è modo di dire, “io sono disposto a fare è utilizzato in questo contesto, ma non a questi contesti”. E penso che ciò significa che Ai sta per sollevare le questioni circa il contesto di cui abbiamo bisogno per iniziare a utilizzare questi flussi di dati.
Come funziona il “contesto” si inserisce in questo?
Michelle Dennedy: Abbiamo scritto un libro di un paio di anni fa, intitolato “La Privacy Ingegnere Manifesto”, in il manifesto, le tecniche che abbiamo utilizzato sono a base di davvero fondamentale informatica.
Prima abbiamo chiamato “computer science” che abbiamo usato per chiamare “statistiche e matematiche.” Ma anche il pensare geometriche prova, non succede nulla, senza contesto. E così, il pensiero che si dispone di uno strumento che è appropriato per tutto ciò che ha mai lavorato nel settore dell’ingegneria. Non costruire un ponte con le unghie e non usare martelli. Non pensare di mettere qualcosa nella giungla che è stato costruito come una struttura che si vorrebbe costruire in Arizona.
Così, pensando di casi e contesti con dati umani, e la creazione di esperienze umane, è tutto. E fa un sacco di senso. Se si pensa a come siamo regolati principalmente negli stati UNITI, lasciamo i banchieri di sconto per un momento, perché sono diverse agenzie, ma la Commissione Federale delle Comunicazioni, la Commissione Federale del Commercio; così, stiamo pensando a interessi commerciali; stiamo pensando di comunicazione. E la comunicazione è molto imperfetta, perché? Perché è l’uomo che fa di tutto la comunicazione!
Così, ogni volta che si parla di qualcosa che è umano e umano, come il trattamento di informazioni che incide sulla vita e le culture e commercio di persone, si sta andando ad avere per davvero ruotare sul contesto. Questo non significa che non tutti ottiene una specialità cosa, ma ciò non significa che ognuno ottiene un auto in qualsiasi colore che si desidera, purché sia nero.
David Bray: E voglio amplificare ciò che Michelle sta dicendo. Quando sono arrivato alla FCC per la fine del 2013, siamo stati a pagare per le persone a fare volontariato qual è la loro velocità di banda larga sono stati, in alcuni, di selezionare le aree perché volevamo vedere che essi sono stati sempre la velocità della banda larga che avevano promesso. E che costi il governo di soldi, e ci sono voluti un sacco di lavoro, e così abbiamo effettivamente voluto rimboccarsi un’app che permetta alle persone di crowdsourcing, e se avessero voluto, vedere che cosa il loro punteggio e condividere volontariamente con il FCC. Riconoscere che se mi si alzò e disse: “Ciao! Io sto con il governo degli stati UNITI! Ti piacerebbe avere un app […] per la connessione a banda larga?” Forse non è che successo.
Ma utilizzando i principi che lei ha detto sulla privacy di ingegneria e la privacy di design, si è fatta l’app open source, per cui la gente poteva vedere il codice. Due, abbiamo fatto in modo che, quando abbiamo progettato il codice, non catturano il vostro indirizzo IP, e non sapevo che eri in un periodo di cinque miglia di raggio. Così, ha dato qualche confusione per il vostro attuale, posizione specifica, ma era ancora abbastanza buono per informare se non di velocità della banda larga è come desiderato.
E una volta che l’abbiamo fatto; inoltre, i termini e le condizioni erano solo due pagine; il che, di nuovo, abbiamo lasciato cadere il guanto di sfida e disse: “Quando è stata l’ultima volta che hai accettato di qualsiasi cosa su internet che era solo due pagine?” Laminazione che, come risultato, ha finito per essere la quarta più app scaricata dietro a Google Chrome perché ci sono state persone che hanno guardato il codice e disse: “Sì, in verità, hanno privacy by design”.
E così, penso che questo sia il principio della “privacy by design” sta facendo il riconoscimento che uno, non è solo la crittografia, ma poi due, non è solo il legalese. Si può mostrare qualcosa che dà fiducia, che ciò che si sta facendo con i loro dati in modo esplicito quali hanno dato il consenso? Che, per me, è ciò che è necessario per AI [che] è, possiamo fare la stessa cosa che vi mostra ciò che è stato fatto con i tuoi dati, e ti dà l’opportunità di valutare se la volete o no?
Non AI bisogno di un nuovo livello di sicurezza delle informazioni?
David Bray: Così, ti do la semplice risposta è “Sì”. E ora vado di là.
Così, si torna a prima che Michelle ha detto, penso che sia grande per decomprimere che AI è molte cose diverse. Non è un monolitico cosa, e vale la pena di decidere stiamo parlando semplicemente di apprendimento automatico in velocità? Stiamo parlando di reti neurali? Questo è importante perché cinque anni fa, dieci anni fa, quindici anni fa, l’enorme quantità di dati disponibili è stato in nessun posto vicino a quello che è ora, e figuriamoci cosa sarà in cinque anni.
Se siamo ora a circa 20 miliardi di dispositivi collegati in rete sulla faccia del pianeta relativa a 7,3 miliardi di esseri umani, stime tra 75 e 300 miliardi di dispositivi in meno di cinque anni. E così, penso che stiamo cominciando ad avere questi intensificato le preoccupazioni circa l’etica e la sicurezza dei dati. Scott domanda: perché semplicemente siamo la strumentazione di noi stessi, siamo la strumentazione nostre auto, i nostri corpi, le nostre case, e questo genera enormi quantità di domande su ciò che le macchine di questo flusso di dati. È anche solo la pura e semplice capacità di elaborazione. Voglio dire, la capacità di fare petaflops e ora exaflops e di là, voglio dire, che non solo era presente, dieci anni fa.
Così, con quello detto, la questione della sicurezza. È la sicurezza, ma abbiamo bisogno di una nuova parola. Ho sentito in Scandinavia, si parla di integrità e di essere parte integrante. E ‘ veramente l’integrità dei dati: avete dato il consenso per averlo utilizzato per un particolare scopo? Quindi, credo che l’IA potrebbe svolgere un ruolo nel rendere il senso di se i dati sono trattati in modo sicuro.
Perché tutta la sfida è adesso, per la maggior parte del trattamento abbiamo decifrare a un certo punto per iniziare a dare un senso e ri-codificare di nuovo. Ma anche, è di essere trattato con la massima serietà e parte integrante di un individuo? L’individuo dato il consenso?
E così, una delle cose sollevate quando ero in conversazioni in Taiwan è la domanda, “Beh, non possiamo semplicemente di un open-source IA, dove diamo il nostro consenso e il nostro consenso per l’ai sono i nostri dati, da utilizzare per determinati scopi?” Per esempio, si potrebbe dire, “Ok, capisco che avere un set di dati servita con questa piattaforma, questa piattaforma di altri qui, e questa piattaforma è finita qui. Sei disposto ad avere i dati per migliorare il servizio di pulizia?” E si potrebbe dire “no”. Egli dice, “va Bene. Ma saresti disposto a farlo se la frequenza cardiaca scende al di sotto di un certo livello e sei in un incidente d’auto?” E si potrebbe dire “sì”.
E così, l’unico modo credo che potremmo mai farcela contesto non sta andando giù una serie di liste di controllo e la verifica di tutti gli scenari possibili. Si sta andando ad avere per essere una macchina in grado di parlare con noi e avere conversazioni su cosa fare e non fare, volete ora hanno fatto dei nostri dati.
Che cosa circa i rischi di creazione di bias in AI?
Michelle Dennedy: Madeleine Chiara Elish ha scritto un documento chiamato “Morale Zone di Deformazione,” e mi piace anche il visual. Se si pensa alle auto e che cosa sappiamo circa gli esseri umani la guida di automobili, smash in ogni altri in determinati modi. E il modo in cui abbiamo avuto la meglio e abbassato vittime di noto car crash utilizzando la fisica e la geometria per la progettazione di una cavità in varie parti della macchina dove non c’è nulla che sta per esplodere o prendere fuoco, etc. come un impatto zona di deformazione. Così tutta la forza e l’energia va via dal passeggero e nel fisico zona di assorbimento dell’auto.
Madeleine sta lavorando esattamente di cosa stiamo parlando. Non sappiamo quando è incosciente o pregiudizi involontari perché è incosciente o involontaria deviazione. Ma, siamo in grado di progettare-in etici zone di deformazione, dove stiamo facendo le cose come test per l’alimentazione, proprio come facciamo con il sandboxing o noi con dati fittizi prima di noi, per andare a vivere in altri tipi di sistemi. Possiamo decidere di usare gli AI di tecnologia e aggiungere problemi noti per la loro riqualificazione database.
Io ti do Watson come esempio. Watson non è una cosa. Watson è un marchio. Il modo in cui il computer Watson battere Pericolo per i concorrenti è l’apprendimento di Wikipedia. Così, mediante il trattamento di quantità di massa dei suddetti dati, si sa, data una qualunque livelli di autenticità che modello.
Quello che Watson non è selettivamente dimenticare. Così, il vostro cervello e la vostra rete neurale sono meglio a dimenticare i dati e ignorando i dati che per l’elaborazione dei dati. Stiamo cercando di rendere il nostro computer simulare un cervello, tranne che il cervello è bravo a dimenticare. IA non è bene, ancora. Così, si può mettere il codice fiscale, che dovrebbe riempire di tre sale da ballo se si stampa su carta. Si può mangiare in una IA tipo di set di dati, e si può allenare in quello che sono noti somme di denaro, qualcuno dovrebbe pagare in un determinato contesto?
Ciò che non si può fare, e che cosa penso che sarebbe interessante se abbiamo fatto fare, è che se riuscissimo a sistemare i dati di tutti gli imbroglioni. Quali sono le truffe più frequenti? Come facciamo a barare? E sappiamo che quelli che vengono catturati, ma, cosa più importante, come si […] ottenere catturati? Queste sono cose in cui credo è necessario progettare in etici e morali zona di deformazione e dire, “Come fa la gente a utilizzare attivamente i sistemi?”
Il concetto di ghost in the machine: come fare macchine che sono ben addestrati, con dati di esperienza degrado? Entrambi non stanno tirando da set di dati perché l’apparecchiatura è semplicemente … sai, non sono di lettura unità a nastro è più, o non è alimentato da nuovi dati, o non stiamo di eliminare i vecchi dati. Ci sono un sacco di tecniche diverse qui che penso debbano ancora essere distribuito su scala che penso che abbiamo bisogno di prendere in considerazione prima siamo troppo affidamento [AI], senza l’controlli ed equilibri, e trattati controlli ed equilibri.
Come si risolve questo bias problema?
David Bray: penso che sta andando ad avere per essere un approccio graduale. Come punto di partenza, è necessario quasi l’equivalente di un mediatore umano – una serie di persone a guardare quello che la macchina sta facendo relativo ai dati che è stato alimentato.
E si può fare questo in diversi contesti. Potrebbe essere interno alla società, ed è proprio sicuri che tutto ciò che la macchina viene alimentata non è che le decisioni che sono atroci o errati.
O, se si vuole guadagnare la fiducia del pubblico, di condividere alcuni dei dati, e condividere alcuni dei risultati astratte, ma di tutto ciò che è associato con un individuo e dire, “Questi tipi di persone richiesto per i prestiti. Questi tipi di prestiti sono stati premiati:” assicurarsi che la macchina non è che poggia su alcuni pregiudizi che noi non conosciamo.
A più lungo termine, però, hai avuto modo di scrivere che mediatore. Abbiamo bisogno di essere in grado di progettare una IA per servire come un mediatore per l’IA.
Quindi, in realtà, quello che mi piacerebbe vedere non solo AI come un unico, monolitico sistema, potrebbe essere uno che prende le decisioni, e poi un altro che serve come il Grillo parlante che dice: “Questo non ha senso. Queste persone sono barare” e di segnalare quei difetti nel sistema. Così, abbiamo bisogno l’equivalente di un Grillo parlante per AI.
CXOTALK ti porta il mondo di imprenditori più innovativi, gli autori e gli analisti di approfondire la discussione non disponibile in qualsiasi altro luogo. Godere di tutti i nostri episodi e scaricare il podcast di iTunes e di Spreaker.