Pentagon planlægger at bruge $2 milliarder til at sætte mere kunstig intelligens i dens våben

0
166

Forsvarsministeriet banebrydende forskning arm har lovet at gøre den militære største investering til dato i kunstig intelligens (AI) systemer for AMERIKANSKE våben, at forpligte sig til at tilbringe op til $2 milliarder over de næste fem år i, hvad det er afbildet som et nyt forsøg på at gøre sådanne systemer mere pålidelige og accepteret af militære chefer.

Direktøren for the Defense Advanced Research Projects Agency (DARPA) meddelte udgifter amok på den sidste dag i en konference i Washington for at fejre sin tres-årige historie, herunder dens etages rolle i fødende internettet.

Agenturet ser det som sin primære rolle som presser på nye teknologiske løsninger til militære problemer, og Trump administration tekniske høvdinge har kraftigt bakket injektion af kunstig intelligens i flere af Usa ‘ s våben som et middel til at konkurrere bedre med russiske og Kinesiske militære styrker.

DARPA investering er lille i Pentagon udgifter standarder

DARPA investering er lille i Pentagon udgifter standarder, hvor omkostningerne ved at købe og vedligeholde nye F-35 kampfly forventes, at den overstiger en billion dollars. Men det er større end AI-programmer, som historisk set har været finansieret og nogenlunde ved, hvad de Forenede Stater brugt på manhattanprojektet, der er fremstillet kernevåben i 1940’erne, selv om, at tallet ville være værd omkring $28 millioner i dag på grund af inflationen.

I juli forsvarsentreprenør Booz Allen Hamilton har modtaget en $885 millioner kontrakt til at arbejde på undescribed kunstig intelligens programmer over de næste fem år. Og Projektet Maven, den største militære AI-projektet, som er beregnet til at forbedre computeres evne til at udvælge objekter i billeder til militær anvendelse, er på grund af få $93 millioner i 2019.

Vender flere militære analytiske arbejde – og potentielt nogle centrale beslutninger – over til computere og algoritmer, der er installeret i våben i stand til at handle voldeligt imod mennesker er kontroversiel.

Google havde stået i spidsen for Projektet Maven projekt for afdelingen, men efter en organiseret protest ved Google-medarbejdere, der ikke ønsker at arbejde med software, der kunne hjælpe med at udvælge målene for militær til at dræbe, selskabet sagde i juni, at det ville ophøre med sit arbejde, efter sin nuværende kontrakt udløber.

Mens Maven og andre AI initiativer, der har hjulpet Pentagon våben-systemerne bliver bedre til at genkende, mål og gør ting som flyvende droner mere effektivt, fielding computer-drevne systemer, der tager dødbringende handling på deres egen ikke er blevet godkendt til dato.

En Pentagon-strategi dokument udgivet i August siger fremskridt i teknologi, der snart vil gøre sådanne våben muligt. “DoD i øjeblikket ikke har et selvstændigt våben system, der kan søge efter, identificere, spore, skal du vælge og engagere mål uafhængig af en menneskelig operatør input,” sagde den rapport, som blev underskrevet af top Pentagon erhvervelse og forskning embedsmænd Kevin Fahey og Mary Miller.

Men “teknologier, der danner grundlag ubemandede systemer vil gøre det muligt at udvikle og implementere autonome systemer, der kan selvstændigt vælge og angreb med dødelig kraft,” rapporten forudsagde.

mens AI-system, der er teknisk i stand til at vælge mål og fyring våben, militære chefer har været tøvende over for at overgive kontrol

I rapporten bemærkes, at mens AI systemer er allerede teknisk set er i stand til at vælge mål og fyring våben, militære chefer har været tøvende over for at overgive kontrol til våben platforme, dels på grund af manglende tillid i maskinen argumentation, især på slagmarken, hvor variabler, der kunne fremstå som en maskine, og dens designere har ikke tidligere stødt på.

Lige nu, for eksempel, hvis en soldat spørger en AI-system som et mål identifikation platform til at forklare sit valg, kan det kun give konfidensinterval for sin afgørelse, DARPA ‘ s direktør Steven Walker fortalte journalister efter et indlæg om de nye investeringer – et skøn, der ofte gives i procent, som i de brøkdele af sandsynligheden for, at et objekt systemet har fremhævet, er faktisk, hvad den erhvervsdrivende var på udkig efter.

“Det, vi forsøger at gøre med, forklares AI er, at maskinen skal fortælle det menneskelige ‘her er dit svar, og her er hvorfor jeg tror, at dette er det rigtige svar’, og forklare, at det menneske, hvordan det kom til at svare,” Walker sagde.

DARPA embedsmænd har været uigennemsigtig om præcis, hvordan den nyligt-finansieret forskning, vil resultere i, at computere bliver i stand til at forklare centrale beslutninger for mennesker på slagmarken, midt i al den larmende og påtrængende karakter af en konflikt, men de embedsmænd sagde, at det at være i stand til at gøre, så er det afgørende, at AI ‘ s fremtid i militæret.

Menneskelige beslutningsprocesser og rationalitet afhænger af en masse mere end bare at følge regler

Hvælvingerne over den hurdle, ved at forklare, AI begrundelse for at operatører i realtid, kan være en stor udfordring. Menneskelige beslutningsprocesser og rationalitet afhænger af en masse mere end bare at følge regler, som er maskiner, der er gode til. Det tager år for mennesker at opbygge et moralsk kompas og commonsense tænkning evner, egenskaber, som teknologer er stadig kæmper for at design til digitale maskiner.

“Vi sandsynligvis har brug for nogle gigantiske Manhattan-Projektet at skabe et AI-system, der har den kompetence, en tre år gammel,” Ron Brachman, som brugte tre år på at styre DARPA ‘ s AI-programmer, der sluttede i 2005, sagde tidligere i DARPA konference. “Vi har haft ekspert-systemer i fortiden har vi haft meget robust robotsystemer til en vis grad, vi ved, hvordan vi skal genkende billeder i gigantiske databaser med billeder, men den samlede, herunder hvad folk har kaldt commonsense fra tid til tid, er det stadig meget undvigende på området.”

Michael Horowitz, der har arbejdet med kunstig intelligens spørgsmål til Pentagon, som en kollega på Kontoret af forsvarsministeren i 2013 og er nu professor ved University of Pennsylvania, forklarede i et interview, at “der er en masse bekymring for, om AI sikkerhed – [om] algoritmer, der er i stand til at tilpasse sig til den komplekse virkelighed, og dermed fejl i uforudsigelige måder. Det er én ting, hvis det er, hvad du taler om, er en Google søgning, men det er en anden ting om, hvad du taler om, er et våben system.”

Horowitz tilføjede, at hvis AI-system kunne bevise, at de havde brug almindelig sund fornuft, “det ville gøre det mere sandsynligt, at ledere og slutbrugere, der ønsker at bruge dem.”

En udvidelse af AI ‘ s anvendelse af militære blev godkendt af Defense Science Board i 2016, som bemærkede, at maskiner kan handle hurtigere end mennesker i militære konflikter. Men med de hurtige beslutninger, er det tilføjet, komme i tvivl fra dem, der er nødt til at stole på maskiner på slagmarken.

“Mens chefer forstår, at de kunne drage fordel af bedre, organiseret, mere aktuel og mere præcise oplysninger aktiveret ved anvendelse af autonomi til krigsførelse, de også stemme betydelige bekymringer,” hedder det i rapporten.

DARPA er ikke kun Pentagon enhed sponsorere AI forskning. Trump administration er nu i færd med at skabe en ny Fælles Kunstig Intelligens Center i bygning for at hjælpe med at koordinere alle de AI-relaterede programmer på tværs af forsvarsministeriet.

Men DARPA ‘ s planlagte investeringer skiller sig ud for sin rækkevidde.

DARPA har i øjeblikket omkring 25-programmer med fokus på AI-forskning

DARPA har i øjeblikket omkring 25-programmer med fokus på AI-forskning, i henhold til agenturet, men har planer om at sende nogle af de nye penge via sin nye Kunstige Intelligens Efterforskning Program. Det program, meddelte i juli, vil give tilskud på op til $1 million hver for at forske i, hvordan AI systemer kan blive undervist i at forstå kontekst, der giver dem mulighed for mere effektivt at operere i komplekse miljøer.

Walker sagde, at aktivering af AI-system til at træffe beslutninger, selv når distraktioner er hele vejen rundt, og derefter forklare disse beslutninger til deres operatører vil være “kritisk vigtige…i en krigsførelse scenarie.”

Center for Public Integrity er en nonprofit undersøgende nyheder organisation i Washington, DC.