Pentagon planlegger å tilbringe $2 milliarder kroner for å sette mer kunstig intelligens inn i sitt våpen

0
168

Forsvarsdepartementet er cutting-edge forskning arm har lovet å gjøre den militære største investeringer hittil i kunstig intelligens (AI) systemer for AMERIKANSKE våpen, forplikter du deg til å tilbringe opp til $2 milliarder kroner over de neste fem årene i det som beskrives som et nytt forsøk på å gjøre slike systemer er mer pålitelige, og som er akseptert av militære sjefer.

Direktør for Defense Advanced Research Projects Agency (DARPA) kunngjorde å bruke spree på den siste dagen av en konferanse i Washington feirer sitt seksti år lange historie, inkludert sin historiske rolle i fødselen internett.

Byrået anser sin primære rolle som presser frem nye teknologiske løsninger for å militære problemer, og Trump administrasjon teknisk høvdinger har sterkt støttet injisere kunstig intelligens inn i flere av usas våpen som et middel til å konkurrere bedre med russisk og Kinesisk militære styrker.

Den DARPA investeringen er liten ved Pentagon å bruke standarder

Den DARPA investeringen er liten ved Pentagon å bruke standarder, hvor kostnaden ved å kjøpe og vedlikeholde nye F-35 krigsfly er forventet å overstige en billion dollar. Men det er større enn AI programmer har historisk sett vært finansiert og omtrent hva Usa har brukt på Manhattan-Prosjektet som produserte kjernefysiske våpen i 1940-årene, men at tallet ville være verdt ca $28 milliarder i dag på grunn av inflasjon.

I juli forsvarsleverandør Boas Allen Hamilton fikk en $885 millioner kroner avtale om å arbeide på ubeskrevet kunstig intelligens programmer i løpet av de neste fem årene. Og Prosjektet Maven, den absolutt største militære AI-prosjektet, som er ment å forbedre datamaskiner’ evne til å plukke ut objekter i bilder for militært bruk, er på grunn av få $93 millioner kroner i 2019.

Slå flere militære analytisk arbeid – og potensielt noen viktige beslutninger- over til datamaskiner og algoritmer som er installert i våpen i stand til å handle voldsomt mot mennesker er kontroversielt.

Google hadde vært ledende Prosjektet Maven prosjekt for avdelingen, men etter en organisert protest ved Google-ansatte som ikke ønsker å jobbe på programvare som kan hjelpe plukke ut mål for den militære til å drepe, selskapet sa i juni at det ville avslutte sitt arbeid etter sin nåværende kontrakt utløper.

Mens Maven og andre AI tiltak har bidratt til Pentagon våpen systemer bli bedre til å gjenkjenne objekter og å gjøre ting som flygende droner mer effektivt, fielding datamaskin-drevne systemer som tar dødelige tiltak på sin egen ikke har blitt godkjent til dags dato.

En Pentagon strategi dokument utgitt i August, sier fremskritt i teknologi vil snart gjøre slike våpen mulig. “DoD ikke har et autonome våpen-system som kan søke etter, finne, spor, velger du og engasjere mål uavhengig av en menneskelig operatør innspill,” heter det i rapporten, som ble undertegnet av topp Pentagon kjøp og forskning tjenestemenn Kevin Fahey og Mary Miller.

Men “- teknologier som underbygger ubemannede systemer vil gjøre det mulig å utvikle og distribuere autonome systemer som kan uavhengig velg og angripe mål med dødelig makt,” rapporten spådd.

mens AI-systemer er teknisk i stand til å velge mål og skyte våpen, sjefer har vært nølende om å overgi kontrollen

Rapporten bemerket at mens AI-systemer er allerede teknisk sett i stand til å velge mål og skyte våpen, sjefer har vært nølende om å overgi kontrollen til våpen plattformer delvis på grunn av en mangel på tillit i maskinen resonnement, spesielt på slagmarken, der variabler som kunne dukke opp som en maskin og designere som ikke tidligere har møtt.

Akkurat nå, for eksempel, hvis en soldat spør en AI-system som et mål identifikasjon plattform for å forklare sitt valg, kan bare gi tillit estimat for sin avgjørelse, DARPA-direktør Steven Walker fortalte reportere etter en tale annonsere den nye investeringer – et estimat ofte gitt i prosent vilkår, som i brøk sannsynligheten for at et objekt systemet har plukket ut er faktisk hva operatøren var ute etter.

“Det vi prøver å gjøre med explainable er AI har maskinen fortelle human” her er svaret, og her er grunnen til at jeg tror dette er den riktige svar’ og forklare mennesket hvordan det kom til det svaret,” Walker.

DARPA tjenestemenn har vært uklart om nøyaktig hvordan den nylig-finansiert forskning vil resultere i datamaskiner blir i stand til å forklare viktige beslutninger til mennesker på slagmarken, midt i alle de skrål og haster av en konflikt, men tjenestemenn sa at det å være i stand til å gjøre så er kritiske til AI ‘ s fremtid i det militære.

Menneskelige beslutninger og rasjonalitet, avhenger av mye mer enn bare å følge regler

Hvelvene over hinder, ved å forklare AI resonnement til operatører i sanntid, kan være en stor utfordring. Menneskelige beslutninger og rasjonalitet, avhenger av mye mer enn bare å følge reglene, hvilke maskiner er gode på. Det tar år for mennesker å bygge et moralsk kompass og commonsense tenkning evner, egenskaper som teknologer er fortsatt sliter med å utforming i digitale maskiner.

“Vi sannsynligvis trenger noen gigantiske Manhattan-Prosjektet for å lage en AI-system som har kompetanse på et tre år gammelt,” Ron Brachman, som tilbrakte tre år som administrerende DARPAS AI programmer som avsluttes i 2005, sa tidligere i løpet av DARPA-konferansen. “Vi har hatt ekspertsystemer i det siste, vi har hatt veldig robust robot systemer til en viss grad, vi vet hvordan å gjenkjenne bilder i store databaser på bilder, men samlet, inkludert hva folk har kalt commonsense fra tid til annen, det er fortsatt ganske unnvikende i feltet.”

Michael Horowitz, som jobbet på kunstig intelligens problemer for Pentagon som en fyr på Kontoret til Forsvarsminister i 2013 og er nå professor ved University of Pennsylvania, forklarte i et intervju at “det er mye bekymring om AI-sikkerhet – [om] algoritmer som er i stand til å tilpasse seg til en kompleks virkelighet, og dermed feil på uforutsigbare måter. Det er en ting om det du snakker om er et Google-søk, men det er en annen ting om det du snakker om er et våpen system.”

Horowitz la til at hvis AI-systemer kunne bevise at de var å bruke sunn fornuft, “det ville gjøre det mer sannsynlig at eldre ledere og sluttbrukere som ønsker å bruke dem.”

En utvidelse av AI ‘ s bruk av militære ble godkjent av Forsvaret Vitenskap Styret i 2016, som bemerket at maskiner kan fungere raskere enn mennesker i militære konflikter. Men med de raske beslutninger, er det lagt til, komme tvil fra de som har å stole på maskinene på slagmarken.

“Mens sjefer forstå de kunne dra nytte av bedre organisert, mer aktuell, og mer nøyaktig informasjon aktivert ved anvendelse av autonomi til warfighting, de også stemme betydelige bekymringer,” rapporten sa.

DARPA er det ikke bare Pentagon enhet sponse AI-forskning. Trump administrasjon er nå i ferd med å skape en ny Felles Artificial Intelligence Center i bygningen for å hjelpe koordinere alle AI-relaterte programmer på tvers av forsvarsdepartementet.

Men DARPA er det planlagt investeringer skiller seg ut for sitt virkeområde.

DARPA har for tiden ca 25 programmer fokusert på AI-forskning

DARPA har for tiden ca 25 programmer fokusert på AI-forskning, i henhold til byrået, men planer om å kanalisere noen av de nye penger gjennom sin nye Kunstig Intelligens Exploration Program. Det programmet som ble annonsert i juli, vil gi tilskudd til $1 million hver for å forske på hvordan systemer for kunstig INTELLIGENS kan bli lært opp til å forstå konteksten, slik at de mer effektivt kan operere i komplekse miljøer.

Walker sa at AI-systemer til å ta avgjørelser selv når forstyrrelsene er alle rundt, og så forklare disse avgjørelsene til deres operatører vil være “kritisk viktig…i en warfighting scenario.”

Senter for Offentlig Integritet er en ideell undersøkende nyheter organisasjon i Washington, DC.