Zero
Con il lancio del Pixel 2 Pixel e 2 XL telefoni cellulari, Google mercoledì in mostra solo un modo per fare di intelligenza artificiale, una componente chiave dei suoi prodotti e servizi. Google dal 2016, a seguito di una “AI primi”, la strategia di scommesse che l’intelligenza ti importa molto di più dispositivi.
Con questo livello di attenzione e di investimento in AI, Google capogruppo Alfabeto ha un sacco di incentivo a evitare il contraccolpo che può venire da AI distribuzioni andato storto.
Appena un giorno prima, DeepMind — Alfabeto intelligenza artificiale divisione — lanciato DeepMind Etica & Società, di una unità di ricerca all’interno dell’azienda con l’intento di “esplorare e comprendere meglio il mondo reale impatto di AI.”
“La tecnologia non è un valore neutro, e tecnologi devono assumersi la responsabilità di etica e d’impatto sociale del loro lavoro,” DeepMind, ha detto in un post sul blog, scritto da Verity Harding e Sean Legassick, il “co-leader” della nuova unità di ricerca. “A DeepMind, partiamo dal presupposto che tutti AI applicazioni che devono rimanere sotto significativo controllo umano, e possono essere utilizzati per scopi di utilità sociale.”
Il nuovo gruppo ha intenzione di pubblicare una ricerca originale, in proprio e in collaborazione con gli altri. Il suo lavoro sarà guidato da “chiave di ricerca “temi” come “impatto economico” e “AI moralità e di valori”. Il gruppo intende inoltre seguire cinque principi fondamentali: Che l’IA dovrebbe avere beneficio sociale, che la sua ricerca deve essere rigorosa e basata sull’evidenza, il gruppo dovrebbe essere trasparente, il suo lavoro dovrebbe essere interdisciplinare e comprendono diversi punti di vista e dovrebbe essere collaborativo e inclusivo.
“La nostra ricerca sarà disponibile on-line, e di contribuire alla prova-base per il significativo dibattito sul mondo reale impatto di intelligenza artificiale, il gruppo dice sulla sua pagina di FAQ.
L’unità di ricerca dell’principi sono stati sviluppati con ingresso indipendente da “compagni”, che includono accademici come Nick Bostrom, fondatore e direttore dell’Università di Oxford e del Future of Humanity Institute.
Questo ultimo sforzo per esplorare le implicazioni etiche di AI si segue il lancio di numerose altre iniziative, alcune più indipendente rispetto agli altri. L’anno scorso, infatti, Google e DeepMind è entrato Amazon, Facebook, IBM e Microsoft per formare un non-for-profit che si concentra sulla costruzione AI migliori pratiche e la pubblicazione di ricerche sotto una licenza aperta in settori come l’etica, l’equità e inclusione. Inoltre, Carnegie Mellon lo scorso anno, ha annunciato l’istituzione di un nuovo centro di ricerca incentrato sull’etica dell’intelligenza artificiale; l’università ha legami di Google, così come altre for-profit tecnologia di aziende come Uber.
Mentre DeepMind dice l’unità di ricerca si è impegnata per la trasparenza, l’azienda è venuto sotto il fuoco di recente per alcuni opaco comportamento — una agenzia del governo nel regno UNITO la scorsa estate, ha stabilito che a Londra alla Royal Free hospital non è riuscito a rispettare la Legge sulla Protezione dei Dati, quando si diede DeepMind accesso a dati personali da 1,6 milioni di pazienti. DeepMind di accesso ai dati solo è venuto alla luce a seguito di un Nuovo Scienziato rapporto di nel 2016.
Un approccio problem-solving operai dovrebbero imparare da ingegneri robotici
A volte la soluzione più profonda è di cambiare l’intero problema.
Leggi Di Più
0