Pentagon planerar att spendera $2 miljarder för att sätta mer artificiell intelligens i sina vapen

0
168

Försvarsdepartementet banbrytande forskning arm har lovat att göra den militära största investering hittills inom artificiell intelligens (AI) system för AMERIKANSKA vapen, åtog sig att spendera upp till $2 miljarder euro under de kommande fem åren i vad det skildras som ett nytt försök att göra ett sådant system är mer tillförlitliga och godkänts av militära befälhavare.

Regissören av Defense Advanced Research Projects Agency (DARPA) meddelade utgifterna spree på den sista dagen av en konferens i Washington firar sextio år av historia, inklusive dess sägenomspunna roll i födelseprocess internet.

Byrån ser som sin primära roll som driver fram nya tekniska lösningar för militära problem, och Trump administration tekniska hövdingar har starkt stöd injicera artificiell intelligens i flera av Usa: s vapen som ett medel för att konkurrera bättre med ryska och Kinesiska militära styrkor.

DARPA investeringar är liten av Pentagon spendera standarder

DARPA investeringar är liten av Pentagon spendera standarder, där kostnaden för att köpa och underhålla nya F-35 stridsflygplan förväntas överstiga en biljon dollar. Men det är större än AI-program har historiskt finansierats och ungefär vad Usa har spenderat på Manhattan-Projektet som produceras kärnvapen på 1940-talet, även om den siffran skulle vara värd ca $28 miljarder idag på grund av inflationen.

I juli försvar entreprenör Booz Allen Hamilton fick en $885 miljoner kontrakt för att arbeta på obeskriven artificiell intelligens program under de närmaste fem åren. Och Projektet Maven, den enskilt största militära AI-projektet, som är tänkt att förbättra datorer förmåga att välja ut objekt i bilder för militär användning, är på grund av att få $93 miljoner 2019.

När det mer militära analytiskt arbete – och eventuellt några viktiga beslut-göra – över till datorer och algoritmer installerat på vapen kan agera våldsamt mot människor är kontroversiell.

Google hade lett Projektet Maven-projekt för institutionen, men efter en organiserad protest av Google-anställda som inte vill arbeta på programvara som kan hjälpa plocka ut mål för militären att döda, sade företaget i juni skulle det sluta sitt arbete efter sitt nuvarande avtal löper ut.

Medan Maven och andra AI initiativ har bidragit till att Pentagon vapensystem bli bättre på att känna igen mål och göra saker som flygande drönare mer effektivt, fielding dator-driven system som tar dödliga åtgärder på sina egna har inte varit godkänd hittills.

En Femhörning strategi-dokument som släpptes i augusti, säger framsteg inom teknik kommer snart att göra sådana vapen som möjligt. “DoD för närvarande inte har en självständig vapensystem som kan söka efter, identifiera, spåra, välj, och engagera mål oberoende av en mänsklig operatör input,” säger rapporten, som undertecknades av top Pentagon förvärv och forskning tjänstemän Kevin Fahey och Mary Miller.

Men “teknik ligger till grund obemannade system skulle göra det möjligt att utveckla och distribuera autonoma system som kan självständigt välja och angripa mål med dödligt våld”, enligt rapporten förutspådde.

medan AI-systemen är tekniskt klarar av att välja mål och bränning vapen, befälhavare har varit tveksam till att överlämna kontroll

I rapporten noteras att medan AI-system finns redan i tekniskt klarar av att välja mål och bränning vapen, befälhavare har varit tveksam till att överlämna kontrollen till vapen plattformar delvis på grund av en brist på förtroende i maskinen resonemang, särskilt på slagfältet där variabler som skulle kunna växa fram som en maskin och dess designers har inte tidigare stött på.

Just nu, till exempel, om en soldat som ber ett AI-system som en target identification plattform för att förklara sitt val, det kan bara ge förtroende uppskattning för sitt beslut, DARPA: s regissören Steven Walker sa till reportrar efter ett tal som upplyser om den nya investeringar – en uppskattning som ofta anges i procent, som i relativ sannolikheten att ett objekt har systemet pekas ut är faktiskt vad som operatören var ute efter.

“Vad vi försöker göra med förklarlig AI är har maskinen berätta för de mänskliga ‘här är svaret, och här är varför jag tror detta är det rätta svaret’ och förklara den mänskliga varelsen hur det fick som svar,” Walker.

DARPA tjänstemän har varit oklara om exakt hur den nyligen-finansierad forskning kommer att resultera i datorer för att kunna förklara viktiga beslut för att människor på slagfältet, mitt i allt larm och brådska i en konflikt, men tjänstemän sade att kunna göra det är avgörande för att AI: s framtid i det militära.

Människors beslutsfattande och rationalitet beror på mycket mer än att bara följa regler

Hopp över hinder, genom att förklara AI resonemang till operatörer i realtid, kan vara en stor utmaning. Människors beslutsfattande och rationalitet beror på mycket mer än att bara följa regler, vilka maskiner som är bra på. Det tar flera år för människor att bygga en moralisk kompass och sunt tänkande förmågor, egenskaper som tekniker kämpar fortfarande med att design i digitala maskiner.

“Vi behöver nog några gigantiska Manhattan-Projektet för att skapa ett AI-system som har behörighet för en tre år gammal,” Ron Brachman, som tillbringade tre år hantera DARPA: s AI-program slutar i 2005 sade tidigare under DARPA konferens. “Vi har haft expert systems i det förflutna, vi har haft mycket robust robotsystem till en examen, vi vet hur man känner igen bilderna i gigantiska databaser av fotografier, men den aggregerade, inklusive vad folk har kallat sunt förnuft från tid till tid, det är fortfarande ganska svårfångade i området.”

Michael Horowitz, som arbetade på artificiell intelligens frågor för Pentagon som en kollega i Office of Secretary of Defense i 2013 och är nu professor vid University of Pennsylvania, förklarade i en intervju att “det finns en hel del oro över AI-säkerhet – [om] algoritmer som är oförmögen att anpassa sig till komplexa verkligheten och därmed fel på ett oförutsägbart sätt. Det är en sak om det du pratar om är en Google-sökning, men det är en annan sak om det du pratar om är ett system för vapen.”

Horowitz tillade att om AI-system som kunde bevisa att de var att använda sunt förnuft, “det skulle göra det mer troligt att högre chefer och slutanvändare skulle vilja använda dem.”

En utbyggnad av AI: s användning av militära godkändes av Försvar Vetenskap Styrelsen 2016, vilket noteras att maskiner kan agera snabbare än människor i militära konflikter. Men med dessa snabba beslut, det läggas till, kom tvivel från dem som har att förlita sig på maskiner på slagfältet.

“Samtidigt som befälhavare förstår att de kan dra nytta av bättre organiserade, mer aktuell, och mer exakt information om aktiverad genom tillämpning av självständighet att warfighting, de också röst betydande problem,” enligt rapporten.

DARPA är inte bara Pentagon enhet sponsring AI-forskning. Trump administration är nu i färd med att skapa ett nytt Gemensamt Artificiell Intelligens Centrum i denna byggnad för att hjälpa till att samordna alla AI-relaterade program på Försvarsdepartementet.

Men DARPA: s planerade investeringar står upp för dess tillämpningsområde.

DARPA har för närvarande ca 25 program fokuserat på att AI-forskning

DARPA har för närvarande ca 25 program fokuserat på att AI-forskning, enligt byrån, men planerar att tratten några av de nya pengar genom sin nya Artificiell Intelligens prospekteringsprogram. Programmet, som presenterades i juli, kommer att ge bidrag upp till $1 miljon vardera för forskning om hur AI-system som kan läras att förstå sammanhang, så att de mer effektivt kan arbeta i komplexa miljöer.

Walker säger att gör AI-systemen för att fatta beslut även när distraktioner runt omkring, och sedan förklara dessa beslut för att deras operatörer kommer att vara “kritiskt viktiga…i en warfighting scenario.”

Center for Public Integrity är en ideell undersökande organisation som nyheter i Washington, DC.