Le Pentagone prévoit de dépenser 2 milliards de dollars pour mettre plus d’intelligence artificielle dans ses armes

0
148

Le Département de la Défense à la pointe de la recherche bras a promis de faire de l’armée de l’investissement la plus importante à ce jour dans l’intelligence artificielle (IA) des systèmes pour les états-UNIS armes, en s’engageant à dépenser jusqu’à 2 milliards de dollars sur les cinq prochaines années dans ce qu’il dépeint comme un nouvel effort pour rendre ces systèmes plus fiables et acceptées par les commandants militaires.

Le directeur de la Defense Advanced Research projects Agency (DARPA) a annoncé la frénésie de dépenses sur le dernier jour de la conférence de Washington, fête ses soixante ans d’histoire, y compris de sa riche rôle dans la naissance de l’internet.

L’agence considère que son rôle principal est de pousser de l’avant de nouvelles solutions technologiques à des problèmes militaires, et la Trompette de l’administration technique des chefs de clan ont fortement soutenu l’injection de l’intelligence artificielle en plus de l’Amérique de l’armement comme un moyen de concurrents mieux avec les russes et les forces militaires Chinoises.

La DARPA investissement est faible par les dépenses du Pentagone normes

La DARPA investissement est faible par les dépenses du Pentagone normes, où le coût de l’achat et de la maintenance des nouveaux F-35 avions de guerre est estimée à plus d’un billion de dollars. Mais il est plus grand que les programmes d’insémination artificielle ont toujours été financés, et à peu près ce que les Etats-unis ont dépensé sur le Projet Manhattan qui a produit des armes nucléaires dans les années 1940, bien que ce chiffre serait d’une valeur d’environ 28 milliards de dollars aujourd’hui, en raison de l’inflation.

En juillet entrepreneur de la défense de Booz Allen Hamilton a reçu un $885 millions de contrat de travail sur la loupe programmes d’intelligence artificielle au cours des cinq prochaines années. Et Projet Maven, la plus importante militaire IA projet, qui vise à améliorer les ordinateurs de la capacité à choisir des objets dans les images pour un usage militaire, est due, pour obtenir $93 millions de dollars en 2019.

Tournent de plus en plus militaire d’analyse du travail – et peut-être quelques clés de prise de décision sur les ordinateurs et les algorithmes installé dans des armes capables de commettre des actes de violence contre des êtres humains est controversée.

Google avait été à la tête du Projet Maven du projet pour le ministère, mais après avoir organisé une manifestation organisée par des employés de Google qui ne veulent pas travailler sur le logiciel qui peut vous aider à choisir les cibles pour les militaires de tuer, la société a déclaré en juin qu’il allait cesser son travail après son contrat actuel expire.

Alors que Maven et d’autres IA initiatives ont permis du Pentagone de systèmes d’armes de devenir une meilleure reconnaissance de cibles et de faire les choses comme voler des drones de manière plus efficace, la mise en service piloté par ordinateur systèmes qui prennent une action létale sur leur propre n’a pas été approuvé à ce jour.

Un Pentagone document de stratégie sorti en août dit que les progrès de la technologie va bientôt faire de telles armes. “DoD n’a pas actuellement d’un système d’armement autonome qui permettent de rechercher, d’identifier, de repérer, sélectionner, et d’engager des cibles indépendant de l’homme de l’opérateur de saisie,” dit le rapport, qui a été signé par le sommet du Pentagone de l’acquisition et de la recherche des fonctionnaires Kevin Fahey et Marie Miller.

Mais “les technologies sous-tendent systèmes sans pilote permettrait de développer et de déployer des systèmes autonomes qui peuvent indépendamment de sélectionner et d’attaquer des cibles avec la force meurtrière”, le rapport prédit.

alors que l’IA systèmes sont techniquement en mesure de choisir les cibles et les armes de tir, les commandants ont été réticents à abandonner le contrôle

Le rapport a noté que, bien que l’IA des systèmes sont déjà techniquement capable de choisir les cibles et les armes de tir, les commandants ont été réticents à abandonner le contrôle de plates-formes d’armes, en partie en raison d’un manque de confiance dans la machine raisonnement, en particulier sur le champ de bataille où les variables ont pu émerger que d’une machine et de ses concepteurs n’ont pas été rencontrées.

Actuellement, par exemple, si un soldat demande à un système d’IA comme une identification de la cible de la plateforme pour expliquer son choix, il ne peut fournir la confiance de l’estimation de sa décision, la DARPA, directeur de Steven Walker a déclaré aux journalistes après un discours annonçant la nouvelle à l’investissement – une estimation souvent donné en termes de pourcentage, comme dans la fraction de la probabilité qu’un objet, le système a choisi est effectivement ce que l’opérateur était à la recherche pour.

“Ce que nous essayons de faire avec explicable AI la machine à raconter l’homme “voici la réponse, et c’est pourquoi je pense que c’est la bonne réponse” et d’expliquer à l’homme comment il a obtenu la réponse à cette question,” Walker a dit.

La DARPA, les responsables de l’opaque au sujet de exactement comment ses nouveaux travaux de recherche financés entraînera des ordinateurs capables d’expliquer les principales décisions de l’homme sur le champ de bataille, au milieu de la clameur et l’urgence d’un conflit, mais les fonctionnaires ont déclaré que le fait d’être en mesure de le faire est essentiel pour AI de l’avenir dans l’armée.

Homme de décision et rationalité dépendent beaucoup plus que des règles suivantes

Voûtes sur cet obstacle, en expliquant AI raisonnement pour les opérateurs en temps réel, pourrait être un défi majeur. Homme de décision et rationalité dépendent beaucoup plus que des règles suivantes, quelles sont les machines qui sont bons. Il faut des années pour l’homme de se construire une boussole morale et de bon sens habiletés de la pensée, les caractéristiques que les technologues sont toujours de la difficulté à la conception de machines numériques.

“Nous avons probablement besoin de quelques gigantesque Projet Manhattan pour créer un système d’IA qui a la compétence d’un enfant de trois ans,” Ron Brachman, qui a passé trois ans à la gestion de la DARPA IA de programmes se terminant en 2005, a déclaré plus tôt au cours de la DARPA conférence. “Nous avons eu de systèmes experts dans le passé, nous avons eu très robuste des systèmes robotiques à un certain degré, nous savons comment reconnaître des images dans des bases de données géantes de photos, mais l’ensemble, y compris ce que les gens ont appelé le bon sens de temps en temps, c’est encore assez rare dans le domaine.”

Michael Horowitz, qui a travaillé sur l’intelligence artificielle des questions pour le Pentagone comme un gars dans le Bureau du Secrétaire de la Défense en 2013 et est maintenant professeur à l’Université de Pennsylvanie, a expliqué dans une interview que “il y a beaucoup d’inquiétude quant à l’IA de sécurité – [à propos de] les algorithmes qui sont incapables de s’adapter à la réalité complexe et donc un dysfonctionnement de manière imprévisible. C’est une chose si ce que vous êtes en train de parler d’une recherche sur Google, mais c’est autre chose, si ce que vous êtes en train de parler d’un système d’armes.”

Horowitz a ajouté que si l’intelligence artificielle pourrait prouver qu’ils ont été en utilisant le sens commun, ”il serait plus probable que les hauts dirigeants et les utilisateurs finaux aurait envie de les utiliser.”

Une expansion de l’IA de l’utilisation par les militaires a été approuvé par le Defense Science Board en 2016, ce qui a noté que les machines puissent agir plus rapidement que les humains dans des conflits militaires. Mais avec ces décisions rapides, il a ajouté, viennent les doutes de ceux qui doivent compter sur les machines sur le champ de bataille.

“Alors que les commandants de comprendre qu’ils pourraient bénéficier de mieux organisée, plus de courant, et des informations plus précises activée par l’application de l’autonomie de la guerre, ils ont aussi la voix des préoccupations importantes,” dit le rapport.

La DARPA n’est pas la seule Pentagone unité de parrainage de la recherche en IA. L’Atout de l’administration est maintenant dans le processus de création d’une Commune nouvelle Intelligence Artificielle Centre dans ce bâtiment pour aider à la coordination de tous les pnjs liés à des programmes à travers le Département de la Défense.

Mais DARPA investissement prévu se distingue par son champ d’application.

La DARPA a actuellement environ 25 programmes axés sur la recherche en IA

La DARPA a actuellement environ 25 programmes axés sur la recherche en IA, selon l’agence, mais les plans de l’entonnoir de certaines des nouvelles de l’argent par le biais de sa nouvelle Intelligence Artificielle Programme d’Exploration. Ce programme, annoncé en juillet, donnera des subventions jusqu’à concurrence de 1 million de dollars pour la recherche sur la façon dont un système AI peut-être appris à comprendre le contexte, leur permettant de fonctionner plus efficacement dans des environnements complexes.

Walker a dit que l’activation de système d’intelligence artificielle pour prendre des décisions même si les distractions sont autour, et ensuite expliquer ces décisions pour leurs opérateurs sera “extrêmement important…dans un scénario de guerre.”

Le Centre pour l’Intégrité Publique est un organisme sans but lucratif d’information et d’investigation de l’organisation à Washington, DC.