Settore Tech devono essere protette contro “conseguenze non intenzionali’: Elop

0
159

Zero

Il percorso di interruzione è lastricata con conseguenze non intenzionali, Telstra gruppo dirigente della Tecnologia, dell’Innovazione e della Strategia di Stephen Elop ha detto, con il settore tech bisogno di sicuro di apprendimento automatico e di intelligenza artificiale (AI) applicazioni contro inconscio pregiudizi e violazioni di sicurezza e di fiducia.

Parlando durante l’annuale Telstra Vantage conferenza di Melbourne giovedì, Elop ha detto di cura, creative e di vigilanza ruoli saranno gli unici a sopravvivere l’aumento dell’automazione e dell’AI.

Secondo Elop-che ha servito come CEO di Nokia, prima di essere aggiunto al Telstra squadra l’anno scorso dopo la telco ha creato il nuovo ruolo dell’innovazione testa a guidare la sua CTO (chief scientist, software group, e la strategia aziendale — mentre AI macchinari imparare dai dati di ingresso nei loro sistemi, questi dati vengono alterati dall’uomo con l’inconscio pregiudizi.

“Il cuore dell’intelligenza artificiale è big data, e le informazioni che possono essere ricavate dall’analisi avanzate dei dati … come utilizziamo i dati, e i dati selezioniamo per addestrare le nostre macchine possono avere un profondo effetto su analytics,” Elop ha detto.

Come risultato, male i dati selezionati da umani sviluppatori, per esempio, le recenti scoperte che le donne sono meno probabilità di essere mostrato gli annunci di Google per lavori dipagamento, che alcuni software per il riconoscimento facciale ha difficoltà con il tracking tonalità della pelle più scura, e che la polizia è raccomandato per la ricerca di criminalità in basso livello socio-economico quartieri-ha visto la discriminazione continua attraverso IA come un risultato.

“Anche quando ci affidiamo cosiddetti big data e la moderna tecnologia, società e storia di discriminazione può vivere in piattaforme digitali come una funzione dei dati attraverso la quale il sistema ha imparato, e gli algoritmi che sono stati progettati,” ha spiegato.

Elop indicava anche un caso in cui una AI bot è stata volutamente spostato dagli utenti su internet: Microsoft Tay chatbot su Twitter, che ha imparato il comportamento razzista deliberate tweet.

L’aumento di AI e l’Internet delle Cose (IoT), deve, pertanto, di gestire sia quello che ha definito Twitter “troll” e con l’inconscio sviluppatore pregiudizi se la digitalizzazione della società è di andare per evitare conseguenze non intenzionali, non solo di rafforzare la discriminazione, ma anche di violazione della privacy e la fiducia di tutti gli utenti, Elop ha detto.

“Con Telstra il lancio di quello che è probabilmente il più grande continuo IoT rete nel paese, con la promessa di tutto, da una migliore gestione dell’energia, alla sicurezza, all’efficienza nel settore, alle miniere, alle autonoma di guida, il tutto sposato con la potenza dei big data, non c’è dubbio che l’Internet delle Cose sta andando ad avere un profondo impatto sui risultati che noi forniamo ai nostri clienti,” ha detto.

“Violazioni della Privacy potrebbe rapidamente diventare la conseguenza di tutto questo, dati basati su cloud.”

La raccolta di dati in tale massiccia quantità per uso di machine-learning e AI dispositivi progettati per case intelligenti e smart cities ha il potenziale per essere abusato da cattivi attori, ha detto, in particolare se i dati provenienti da diverse fonti combinate.

“La raccolta di dati in quantità massicce porta a tutti i tipi di conseguenze non intenzionali nella zona di privacy, e che tali rischi si moltiplicano con i big data — non solo i dati primari per sé, ma le nuove inferenze che possono essere ricavati da combinazioni di grandi dati provenienti da fonti diverse”, ha spiegato.

“Per esempio, mash-up dei dati dal sempre più popolare di polizia targa lettori con modelli di criminalità in città-tutta una serie di interessanti informazioni possono essere ricavate dall'”.

Un esempio di questo è di Amazon Alexa, che consente di risparmiare tutti i interazione umana per imparare e diventare più intelligente e più utile AI assistente al suo proprietario, ma la conseguenza non intenzionale potrebbe essere che questa data è abusato, ha suggerito.

“Questo dispositivo registra e memorizza nella nuvola, tutto quello che ho sempre detto è un’effettiva registrazione della mia voce, con la registrazione inizio un paio di secondi, prima ancora di chiedere di esso per avviare l’ascolto,” Elop ha detto.

“E’ solo una questione di tempo prima che quelle registrazioni ottenere utilizzato per un altro scopo.”

Ancora più importante, Elop ha detto, quando gli sviluppatori non riescono a proteggere i sistemi contro l’involontaria conseguenza di violazione di fiducia.

Indicando il recente Equifax violazione, Elop ha dichiarato che sia la violazione di tali altamente dati personali e la nostra risposta all’evento è stato “fondamentale” violazione della sua privacy e la fiducia, e qualcosa che non può essere semplicemente risolto dopo il fatto.

Le persone stanno iniziando a porsi domande quali informazioni si può credere, ha aggiunto, in un altro segno che la fiducia della società breaking down, grazie ai progressi della tecnologia.

“Che cosa si può fidare? Vi fidate di quello che hai letto su internet? Non si fida di quello che si legge su internet, se si allinea con il tuo punto di vista? Non si fida di quello che si legge su internet, se si è twittato da un capo mondiale? Ti fidi di un dispositivo se c’è un pre-programmato backdoor per il dispositivo? Avete fiducia nel fatto che la fotocamera del soggiorno che potrebbe essere parte di un 650Gbps denial-of-service attack, o qualcuno potrebbe essere usando per surrettiziamente monitor hai?”, ha chiesto.

“Quando la sicurezza si rompe, o le persone incaricate di applicare la protezione non riescono nei loro ruoli, o quando il cittadino medio non può più dire la verità e la finzione, abbiamo un problema con la fiducia.

“La conseguenza involontaria del fallimento per proteggere il nostro mondo è un crollo di fiducia nella società-e la fiducia è il fondamento della società stessa.”

Secondo Elop, l’unico modo in cui le aziende possono guardia contro le conseguenze non intenzionali di violazioni di fiducia e di discriminazione dimostrando di avere le caratteristiche principali per i tre ruoli che ha parlato di sopravvivere AI: Cura, creatività e leadership.

Ancora più importante, l’intenzionalità, deve essere utilizzato da coloro che lo sviluppo e la distribuzione di raccolta dati macchine e servizi.

“Non possiamo accettare i molti benefici che i nostri sforzi conferire ai nostri clienti e per le nostre linee di fondo, senza assunzione di responsabilità per l’intera gamma di conseguenze”, ha sostenuto.

“Inconscio bias può essere superata solo con sforzo cosciente — con intenzionalità. E, come abbiamo imparato a Telstra, in materia di privacy i rischi non possono essere affrontate con astratte dichiarazioni politiche e whitepaper, o con la sperimentazione. Ogni nuovo prodotto e del servizio, con l’utilizzo dei dati deve essere attentamente valutata in termini di privacy e di conseguenze non intenzionali.”

Il settore high-tech si deve lavorare in questa direzione, al fine di proteggere la società in generale, ha concluso.

“Coloro che sono in cura, creative e di vigilanza… quelli sono i ruoli che abbiamo bisogno di riempire,” ha detto.

“Intenzionalità ha bisogno di cure; inclusività ha bisogno di creatività; e di cui abbiamo bisogno per condurre la società attraverso i pericoli delle conseguenze impreviste.”

Disclosure: Corinne Reichert viaggiato a Telstra Vantage a Melbourne come un ospite di Telstra

Ultime notizie Australiano

Il governo australiano si impegna AU$50 per la sicurezza informatica del centro di ricerca

ASIC pubblica crowdsourcing finanziamento regime di orientamento

Lavoro condanna NBN tasso di successo dell’installazione seduto al 90 per cento

NBN difende la sua rete, dice poche applicazioni retail ha bisogno di più di 50 mbps

Mcdonald’s, il kick-off di trasformazione della rete con Telstra

0