Il Pentagono prevede di spendere $2 miliardi di mettere più di intelligenza artificiale nelle sue armi

0
231

Il Dipartimento della Difesa, all’avanguardia, il braccio di ricerca ha promesso di fare il militare più grande ad oggi l’investimento in intelligenza artificiale (AI) i sistemi di armi degli stati UNITI, impegnandosi a spendere fino a $2 miliardi di dollari nei prossimi cinque anni, in quello che è raffigurato come un nuovo sforzo per rendere tali sistemi più attendibili e accettato da comandanti militari.

Il direttore della Defense Advanced Research Projects Agency (DARPA) ha annunciato la spesa folle, l’ultimo giorno di una conferenza a Washington festeggia i suoi sessant’anni di storia, tra cui il suo antico ruolo di nascita internet.

L’agenzia vede il suo ruolo primario di portare avanti nuove soluzioni tecnologiche a problemi militari e la tromba di amministrazione tecnico chieftains hanno fortemente sostenuto l’iniezione di intelligenza artificiale in più dell’America armi come mezzo di competere meglio con il russo e il Cinese, le forze militari.

La DARPA, l’investimento è piccolo dal Pentagono spesa standard

La DARPA, l’investimento è piccolo dal Pentagono spesa standard, dove il costo di acquisto e il mantenimento di nuovi F-35, aerei da guerra, si prevede di superare un trilione di dollari. Ma è più grande rispetto AI programmi, storicamente, hanno finanziato e grosso modo quello che gli Stati Uniti hanno speso sul Progetto Manhattan, che produceva armi nucleari nel 1940, anche se quella cifra sarebbe un valore di circa 28 miliardi di dollari di oggi a causa dell’inflazione.

Nel mese di luglio difesa Booz Allen Hamilton ha ricevuto un $885 milioni di euro contratto per lavorare sul nuovo programmi di intelligenza artificiale per i prossimi cinque anni. E Progetto Maven, il singolo più grande AI militari di progetto, che è destinato a migliorare i computer la capacità di raccogliere oggetti in immagini per uso militare, è a causa di $93 milioni nel 2019.

Girando militare più il lavoro di analisi e, potenzialmente, alcune importanti decisioni su computer e algoritmi installato in armi in grado di agire violentemente contro gli esseri umani è controversa.

Google era stato conducendo il Progetto Maven progetto per il dipartimento, ma dopo aver organizzato una protesta dei dipendenti di Google che non vuole lavorare su un software che potrebbe aiutare a individuare gli obiettivi per i militari per uccidere, ha detto la società nel mese di giugno di voler interrompere il suo lavoro dopo il suo attuale contratto scade.

Mentre Maven e AI iniziative hanno contribuito Pentagono sistemi di armi diventare meglio a riconoscere gli obiettivi e fare le cose come volare droni in modo più efficace, fielding computer-driven sistemi di intraprendere un’azione letale su di loro non è stato approvato per data.

Un Pentagono documento di strategia rilasciato nel mese di agosto, dice progressi nella tecnologia sarà presto tali armi possibili. “DoD non dispone attualmente di un autonomo sistema d’arma in grado di cercare, identificare, monitorare, selezionare e coinvolgere gli obiettivi indipendente di un operatore umano,” dice il rapporto, che è stato firmato da top Pentagono di acquisizione e di ricerca funzionari Kevin Fahey e Maria Miller.

Ma “tecnologie che supportano i sistemi senza pilota, sarebbe possibile sviluppare e distribuire sistemi autonomi che potrebbero selezionare in modo indipendente e di attaccare gli obiettivi con la forza letale,” il rapporto previsto.

mentre AI sistemi di sono tecnicamente in grado di scegliere gli obiettivi e sparare le armi, i comandanti sono stato titubante circa cedere il controllo

La relazione ha rilevato che, mentre AI sistemi sono già tecnicamente in grado di scegliere gli obiettivi e sparare le armi, i comandanti sono stati esitanti a cedere il controllo di piattaforme per armi, in parte, a causa di una mancanza di fiducia nella macchina ragionamento, soprattutto sul campo di battaglia in cui le variabili che potrebbero emergere che una macchina e i suoi progettisti non hanno incontrato in precedenza.

Oggi, per esempio, se un soldato chiede un sistema di intelligenza artificiale come una destinazione di identificazione piattaforma per spiegare la sua scelta, può solo fornire la fiducia stima per la sua decisione, la DARPA regista Steven Walker ha detto ai giornalisti dopo un discorso annunciando il nuovo investimento – una stima dato spesso in termini percentuali, come nel frazionaria probabilità che un oggetto, il sistema ha individuato in realtà è ciò che l’operatore stava cercando.

“Ciò che stiamo cercando di fare con spiegabile AI è avere la macchina raccontare l’umano”, ecco la risposta, ed ecco perché credo che questa sia la risposta giusta’ e spiegare l’essere umano come sia arrivato a quella risposta,” Walker ha detto.

DARPA funzionari sono stati opaco su esattamente come la sua recente ricerca finanziata comporterà computer di essere in grado di spiegare le decisioni chiave per uomo sul campo di battaglia, in mezzo a tutto il clamore e l’urgenza di un conflitto, ma i funzionari ha detto che essere in grado di farlo è fondamentale per IA futuro per i militari.

Un processo decisionale umano e razionalità dipendono molto più dei seguenti regole

Volteggio oltre che ostacolo, spiegando AI ragionamento per gli operatori in tempo reale, potrebbe essere una grande sfida. Un processo decisionale umano e razionalità dipendono molto più dei seguenti regole, che le macchine sono buone. Ci vogliono anni per l’uomo di costruire una bussola morale e buon senso le abilità, le caratteristiche che i tecnologi stanno ancora lottando per la progettazione in macchine digitali.

“Abbiamo probabilmente bisogno di qualche gigantesco Progetto Manhattan per creare un sistema di intelligenza artificiale che ha la competenza di un vecchio di tre anni,” Ron Brachman, che ha trascorso tre anni nella gestione DARPA AI programmi di finale nel 2005, ha detto in precedenza durante la DARPA conferenza. “Abbiamo avuto sistemi esperti, in passato, abbiamo avuto molto robusto di sistemi robotici per una laurea, sappiamo riconoscere le immagini in enormi database di fotografie, ma il totale complessivo, compreso ciò che la gente chiama buon senso del tempo, è ancora abbastanza sfuggente in campo.”

Michael Horowitz, che ha lavorato sull’intelligenza artificiale problemi per il Pentagono come fellow presso l’Ufficio del Segretario della Difesa nel 2013 ed è ora professore presso l’Università della Pennsylvania, ha spiegato in un’intervista che “c’è un sacco di preoccupazione per IA sicurezza – [circa] algoritmi che sono in grado di adattarsi a una realtà complessa, e quindi un malfunzionamento in modi imprevedibili. Una cosa è se quello che stai parlando di una ricerca su Google, ma è un’altra cosa, se quello che stai parlando di un sistema di armi.”

Horowitz ha aggiunto che se AI sistemi di dimostrare che erano usando il buon senso, ”si potrebbe rendere più probabile che gli alti dirigenti e gli utenti finali desidera utilizzarli.”

Un’espansione dell’IA uso militare, è stato approvato dalla Defense Science Board nel 2016, il quale ha osservato che le macchine possono agire più rapidamente di quanto gli esseri umani nei conflitti militari. Ma con quelle decisioni rapide, è aggiunto, venire dubbi da parte di coloro che hanno a che fare affidamento sulle macchine sul campo di battaglia.

“Mentre i comandanti di capire che potrebbero trarre beneficio dal meglio organizzato, più aggiornata e più accurate informazioni attivata mediante l’applicazione di autonomia di combattimento, sono anche voce notevoli preoccupazioni”, dice il rapporto.

DARPA non è l’unico Pentagono unità di sponsorizzazione AI ricerca. La tromba di amministrazione è ora nel processo di creazione di una nuova Joint Artificial Intelligence Center in quell’edificio per aiutare a coordinare tutte le AI relativi programmi attraverso il Dipartimento della Difesa.

Ma la DARPA investimento previsto si distingue per il suo ambito di applicazione.

DARPA ha attualmente circa il 25 programmi mirati di ricerca AI

DARPA ha attualmente circa il 25 programmi mirati AI ricerca, secondo l’agenzia, ma i piani di imbuto alcuni dei nuovi fondi attraverso la sua nuova Intelligenza Artificiale Programma di Esplorazione. Il programma, annunciato nel mese di luglio, darà sovvenzioni fino a $1 milione ciascuno per la ricerca sistemi di intelligenza artificiale può essere insegnato a comprendere il contesto, consentendo loro di operare efficacemente in ambienti complessi.

Walker ha detto che l’attivazione di sistemi di intelligenza artificiale per prendere decisioni anche quando le distrazioni sono tutti intorno, e, quindi, a spiegare le decisioni di loro gli operatori di “criticamente importante…in un combattimento scenario”.

Il Center for Public Integrity è un senza scopo di lucro di indagine giornalistica in Washington, DC.