Das Verteidigungsministerium cutting-edge-Forschung arm hat versprochen, um das Militär die größte Investition bisher in der künstlichen Intelligenz (KI) Systeme für US-Waffen, Begehen, verbringen bis zu $2 Milliarden über die nächsten fünf Jahre in dem, was es darstellt, als einen neuen Versuch zu machen, solche Systeme mehr Vertrauen und akzeptiert die von der militärischen Führung.
Die Direktorin der Defense Advanced Research Projects Agency (DARPA) kündigte den Kaufrausch am letzten Tag einer Konferenz in Washington feiert seinen sechzig-jährigen Geschichte, einschließlich seiner stockwerkartig Rolle bei der Geburt des internet.
Die Agentur sieht Ihre primäre Rolle als vorwärts drängen neue technologischen Lösungen für militärische Probleme und der Trumpf-administration technische Häuptlinge haben nachdrücklich unterstützt Einspritzen von künstlicher Intelligenz in Amerikas Waffen als Mittel der konkurrierenden besser mit den Russischen und chinesischen Streitkräften.
Die DARPA Investition ist klein, der von der Pentagon-Ausgaben-standards
Die DARPA Investition ist gering Pentagon die Ausgaben standards, wo die Kosten für den Kauf und die Pflege der neuen F-35 Kampfflugzeuge wird voraussichtlich über eine Billion Dollar. Aber es ist größer als AI-Programme haben in der Vergangenheit bereits finanzierten und ungefähr das, was die Vereinigten Staaten verbrachte auf dem Manhattan-Projekt, produziert von Atomwaffen in den 1940er-Jahren, obwohl dieser Betrag wäre im Wert von rund 28 Milliarden US-Dollar heute aufgrund der inflation.
Im Juli Rüstungsunternehmen Booz Allen Hamilton erhielt eine $885 Millionen-Vertrag für Arbeit auf unbeschriebene Programme der künstlichen Intelligenz in den nächsten fünf Jahren. Und Maven-Projekt, die größte Militär-KI-Projekt, das bedeutete, zur Verbesserung der Computer Möglichkeiten, um Objekte in Bildern für militärische Nutzung, ist aufgrund der $93 Millionen im Jahr 2019.
Drehen mehr militärische analytische Arbeit – und möglicherweise einige der wichtigsten Entscheidungen über die Computer und algorithmen installiert, die im Waffen-und handlungsfähig heftig gegen den Menschen ist umstritten.
Google hatte er das Projekt Maven-Projekt für die Abteilung, aber nach einer organisierten protest von Google-Mitarbeiter, der nicht wollte, um die Arbeit an einer software, die helfen könnten, herausgreifen Ziele für das Militär zu töten, teilte das Unternehmen im Juni würde es nicht weiter seiner Arbeit nach, seine aktuelle Vertrag ausläuft.
Während Maven und andere AI-Initiativen haben dazu beigetragen Pentagon Waffensysteme besser werden, Ziele zu erkennen und Dinge zu tun, wie fliegende Drohnen effektiver, fielding computer-gesteuerte Systeme, die tödliche handeln auf Ihre eigene noch nicht genehmigt worden, um Datum.
Ein Pentagon-Strategie-Dokument veröffentlicht im August, sagt Fortschritte in der Technologie machen bald solche Waffen möglich. “DoD verfügt derzeit nicht über ein Autonomes Waffensystem, das suchen, identifizieren, verfolgen, markieren, und sich Ziele unabhängig von einem menschlichen operator input,” sagte der Bericht wurde unterzeichnet von top-Pentagon-Erfassung und Erforschung der Beamten Kevin Fahey und Mary Miller.
Aber “Technologien zur Untermauerung der unbemannten Systeme würden es möglich machen, zu entwickeln und bereitzustellen, autonome Systeme könnten unabhängig voneinander auswählen und die Ziele anzugreifen, die mit tödlicher Gewalt”, den Bericht vorhergesagt.
während die KI-Systeme sind technisch in der Lage, die Auswahl an Zielen und abfeuern von Waffen, Befehlshaber wurden zögerlich über Hingabe-Kontrolle
Der Bericht beachtet, dass, während die KI-Systeme sind bereits technisch in der Lage, die Auswahl an Zielen und abfeuern von Waffen, Befehlshaber wurden zögerlich über die Entwertung Kontrolle auf Waffen-Plattformen, teilweise, weil ein Mangel an Vertrauen in die Maschine Argumentation, vor allem auf dem Schlachtfeld, wo Variablen ergeben könnten, dass eine Maschine und die Designer bisher noch nicht begegnet.
Gerade jetzt, zum Beispiel, wenn ein Soldat fragt ein KI-system wie ein target-Identifizierung-Plattform zu erklären, seine Auswahl, es kann nur dann das Vertrauen zu schätzen, für seine Entscheidung, die DARPA-Direktor Steven Walker sagte Reportern nach einer Rede mit der Ankündigung des neuen investment – eine Schätzung Häufig gegeben, in Prozenten ausgedrückt, wie in der Bruch-Wahrscheinlichkeit, dass ein Objekt das system hat ausgesondert ist es eigentlich, was der Betreiber suchte.
“Was wir versuchen zu tun erklärbar AI ist die Maschine sagen, der Mensch ‘hier ist die Antwort, und hier ist, warum ich denke, das ist die richtige Antwort’, und erklären Sie den Menschen, wie es die Antwort,” Walker sagte.
DARPA-offiziellen wurden undurchsichtig, genau wie seine neu-finanzierte Forschung führt in Computer erklären zu können, wichtige Entscheidungen zu den Menschen auf dem Schlachtfeld, inmitten all dem Lärm und der Dringlichkeit, einen Konflikt, aber der Beamte sagte, dass in der Lage zu tun, ist entscheidend, um AI ‘ s Zukunft beim Militär.
Menschliche Entscheidungen und Rationalität hängt von einer Menge mehr als nur die folgenden Regeln
Sprung über die Hürde, indem er erklärt, AI Argumentation Betreiber in Echtzeit, könnte eine große Herausforderung sein. Menschliche Entscheidungen und Rationalität hängt von einer Menge mehr als nur die folgenden Regeln, welche Maschinen gut sind. Es dauert Jahre für die Menschen zu bauen, einen moralischen Kompass und vernünftigen denken, Fähigkeiten, Eigenschaften, die Technologen sind immer noch kämpfen, um design in der digitalen Maschinen.
“Müssen wir wohl eine gigantische” Manhattan-Projekt zum erstellen einer AI-system, das die Kompetenz besitzt, der eine drei-jährige,” Ron Brachman, die drei Jahre damit verbracht, die Verwaltung von DARPA ‘ s AI-Programme, die Ende 2005, sagte zuvor, während das DARPA-Konferenz. “Wir hatten Expertensysteme in der Vergangenheit hatten wir sehr robuste Robotik-Systeme zu einem gewissen Grad wissen wir, wie man Bilder erkennt, die in riesigen Datenbanken, die Fotos, aber insgesamt, einschließlich, was die Leute genannt haben, die gesunden von Zeit zu Zeit, es ist immer noch ziemlich schwer im Feld.”
Michael Horowitz, wer arbeitete an der künstlichen Intelligenz Probleme für das Pentagon als fellow in das Amt des Secretary of Defense in 2013 und ist jetzt professor an der University of Pennsylvania, erklärte in einem interview, dass “es gibt eine Menge von Besorgnis über AI-safety – [über] – algorithmen sind nicht in der Lage zur Anpassung an die komplexe Wirklichkeit und damit Fehlfunktionen auf unvorhersehbare Weise. Es ist eine Sache, wenn das, was du redest, ist eine Google-Suche, aber es ist etwas anderes, wenn das, was du redest, ist ein Waffen-system.”
Horowitz fügte hinzu, dass, wenn KI-Systeme könnten beweisen, dass Sie mit gesundem Menschenverstand, “es würde machen es wahrscheinlicher, dass Führungskräfte und Endanwender würden Sie nutzen wollen.”
Eine Erweiterung von AI ‘ s verwenden, die vom Militär unterstützt wurde durch das Defense Science Board im Jahr 2016, die festgestellt, dass die Maschinen wirken rascher als die Menschen in militärischen Konflikten. Aber mit denen schnelle Entscheidungen, es Hinzugefügt, kommen Zweifel von denjenigen, die sich auf die Maschinen auf dem Schlachtfeld.
“Während die Kommandanten wissen, dass Sie davon profitieren könnten, besser organisiert, mehr aktuelle und genauere Informationen aktiviert, die von der Anwendung der Autonomie der Kriegführung eröffnet, Sie Stimme auch erhebliche Bedenken,” so der Bericht.
DARPA ist nicht nur Pentagon-Einheit sponsoring KI-Forschung. Der Trump-administration ist nun in den Prozess der Schaffung einer neuen Gemeinsamen Künstliche Intelligenz-Center in das Gebäude, um zu helfen koordinieren die KI-Programme über das Verteidigungsministerium.
Aber die DARPA, die geplanten Investitionen steht für Ihren Anwendungsbereich.
DARPA hat derzeit über 25 Programme, die sich auf die KI-Forschung
DARPA hat derzeit über 25 Programme, die sich auf die KI-Forschung, nach Angaben der Agentur, aber die Pläne Trichter einige der neuen Geld, das durch die neue Künstliche Intelligenz Exploration-Programm. Das Programm, im Juli angekündigt, geben Zuschüsse von bis zu $1 Millionen für die Forschung, wie die KI-Systeme können gelehrt werden, zu verstehen, Zusammenhang, so dass Sie mehr effektiv arbeiten in komplexen Umgebungen.
Walker sagte, dass die Aktivierung der AI-Systemen, um Entscheidungen zu treffen, selbst wenn Ablenkungen sind überall, und dann erklären diese Entscheidungen für Ihre Betreiber sein wird, “kritisch wichtig…in ein Szenario der Kriegführung eröffnet.”
Das Center for Public Integrity ist eine gemeinnützige investigative news-Organisation in Washington, DC.