La notion de machine alimenté la reconnaissance du visage est celle qui est antérieure à aujourd’hui de la technologie pour en de nombreuses années, grâce à robot POV clichés de films de science-fiction tels que Terminator et Robocop. Mais alors que de nombreux progrès ont été réalisés, logiciel de reconnaissance faciale est loin d’être infaillible, comme les chercheurs de la Carnegie Mellon University, récemment découvert.
Voici les détails d’un rapport de Quartz:
Les chercheurs ont montré qu’ils pouvaient tromper AI systèmes de reconnaissance faciale dans les identifie par erreur affronte, ce qui rend quelqu’un pris en photo semble être quelqu’un d’autre, ou même méconnaissable que l’homme. Avec une paire de montures de lunettes, l’équipe forcé de qualité commerciale logiciel de reconnaissance faciale dans le but d’identifier la mauvaise personne avec jusqu’à 100% de taux de réussite.
Moderne logiciel de reconnaissance faciale s’appuie sur une profonde réseaux de neurones, une saveur de l’intelligence artificielle qui apprend à partir de diagrammes de milliers et des millions d’informations. Lorsqu’on leur a présenté des millions de visages, le logiciel apprend l’idée d’un visage, et comment dire différents de ceux en dehors.
Comme le logiciel apprend ce qu’est un visage ressemble, il s’appuie fortement sur certains détails, comme la forme du nez et les sourcils. La Carnegie Mellon de lunettes n’est pas seulement couvrir les traits du visage, mais au lieu de cela sont imprimés avec un motif qui est perçu par l’ordinateur en tant qu’détails du visage d’une autre personne.
Dans un essai où les chercheurs ont construit un état-of-the-art système de reconnaissance faciale, un homme blanc de test sous réserve de porter des lunettes est apparu comme l’actrice Milla Jovovich avec 87.87% de précision.
Le test n’a pas théorique–la CMU imprimé les lunettes sur papier photo à finition brillante et porté devant une caméra dans un scénario destiné à simuler l’accès à un bâtiment gardé par reconnaissance faciale. Le coût des lunettes de dollars .22 par paire pour les faire.
Les lunettes aussi eu 100% de taux de réussite contre l’commerciale logiciel de reconnaissance faciale Visage++, bien que dans ce cas, ils ont été numériquement appliqué sur les photos, le Quartz, les notes. La CMU de recherche de semblables efforts déployés par Google, OpenAI, et d’autres, il ajoute.
Alors que du Quartz rapport a souligné les risques de sécurité associés à la vulnérabilité des réseaux de neurones qui concerne la reconnaissance faciale, il existe d’autres graves questions à examiner ainsi, dit la Constellation de la Recherche vice-président et analyste principal Steve Wilson.
La CMU de recherche “, nous montre que beaucoup de nos intuitions sur ce qui est informatisé de reconnaissance d’objets sont des faux”, dit-il. “Quand je dis “l’intuition”, je veux dire vraiment ce que nous avons appris de nos attentes pour l’intelligence artificielle de regarder la science-fiction. Ce que nous avons obtenu est un vaste ensemble de technologies qui sont encore en évolution. Il y a un urgent discours public sur ce qu’il veut dire, à partir de l’auto-conduite des voitures de sécurité de l’aéroport, mais il est basé sur une conception simpliste de comprendre comment les machines.”
Aujourd’hui, les réseaux de neurones aller au-delà de l’ancienne méthodes de reconnaissance d’objets — le marquage, l’extraction de caractéristiques et de couleurs, puis le traitement de l’information pour identifier les différents objets, Wilson notes. Les réseaux de neurones sont considérés comme reflétant la façon dont le cerveau humain fonctionne, avec la possibilité d’apprendre au fil du temps. C’est ce qui rend la CMU de recherche important.
“La CMU arrive et dit que nous pouvons prendre une chose comme une paire de lunettes qui ne ressemblent même pas à la cible visage et le réseau de neurones qui déclenche quelque chose à propos de l’objet”, dit-il. “Le réseau de neurones est de se greffer sur la non-évidence de caractéristiques. Vous pouvez tromper, de façon que les laïcs n’aurait jamais pu prévoir.”
Wilson points à l’incident, en juin, quand un homme est devenu la première personne à mourir dans un self-driving accident de voiture. Sa Tesla système de capteur a été incapable de faire la différence entre un tracteur semi-remorque traversée de la route et le ciel lumineux, et la voiture roulait à haute vitesse avec des résultats mortels. “Je ne suis pas blâmer les réseaux de neurones en soi, mais je suis inquiète de ce que ces nouveaux systèmes de vision sont beaucoup plus difficiles à analyser et déboguer que le classique des programmes d’ordinateur, nous sommes venus à attendre”, explique Wilson.
Les réseaux de neurones sont considérés comme un élément clé dans l’obtention de l’auto-conduite des voitures sur le marché et sur la route en masse. La CMU de recherche devrait donner à ceux qui sont impatients de voir cela se produire de graves pause, et de réaliser qu’il est temps pour un plus sophistiqué de la conversation publique sur les réseaux de neurones.
“Si quelqu’un se fait tuer [dans une auto-conduite de la voiture] et l’affaire va au tribunal, pouvons-nous obtenir les fichiers journaux du système et de voir ce que la voiture a vu? Qui pourrait ne pas être possible”, dit-il. “Je pense que les décideurs pense que ça fonctionne comme ça.”
“Les réseaux de neurones n’ont tout simplement pas une étape-par-étape de l’algorithme et du journal d’audit,” ajoute-t-il. “Ils ne fonctionnent pas comme ça. Pensez à la Carnegie Mellon de travail. Il est très surprenant que quelque chose qui ne ressemble pas à un visage peut être interprété comme un visage. Un réseau de neurones-alimenté voiture dévaler la route, qui sait ce qu’il voit? Par conséquent, les gens qui écrivent les lois et de discuter les possibilités besoin d’avoir une approche plus nuancée de discussion au sujet de comment les cerveaux artificiels de travail et la façon dont ils pourraient échouer.”
Wilson recommande, à tout le moins, que les cas de test pour les neurones de la vision machine d’être coulé beaucoup plus largement. “Il ne suffit pas de tester la façon dont une voiture autonome réagit aux chiens en plastique et en plastique des enfants,” dit-il. “Nous devons maintenant nous rendre compte que les réseaux de neurones ne sont pas à la recherche de ces choses de manière explicite. Ils peuvent réagir à des combinaisons d’entrées optiques nous intuitivement on ne pense jamais à tester.”
Accès 24/7 à la Constellation d’Idées Abonnez-vous aujourd’hui pour un accès illimité à expert analyste points de vue sur un thème d’actualité.