Auto-conduite des voitures sont dirigés vers une IA barrage

0
200

Si vous croyez que les chefs de la direction, une voiture autonome pourrait être qu’à quelques mois. En 2015, Elon Musk a prévu une complète autonomie de la Tesla d’ici à 2018; Google. Delphi et MobileEye Niveau 4 système est actuellement prévu pour 2019, la même année Nutonomy prévoit de déployer des milliers de sans conducteur de taxis dans les rues de Singapour. GM va mettre entièrement voiture autonome en production en 2019, avec pas de volant ou de la capacité pour les conducteurs d’intervenir. Il y a de l’argent réel derrière ces prédictions, les paris faits sur l’hypothèse que le logiciel sera en mesure de rattraper le battage médiatique.

Sur son visage, la pleine autonomie semble plus proche que jamais. Waymo est déjà à l’essai des voitures sur des ressources limitées, mais les voies publiques de l’Arizona. Tesla et une foule d’autres imitateurs vendent déjà une forme limitée de pilote automatique, en comptant sur les conducteurs à intervenir si quelque chose d’inattendu se produit. Il y a eu quelques accidents, dont certains mortels, mais aussi longtemps que les systèmes de continuer à améliorer, la logique, nous ne pouvons pas être loin de ne pas avoir à intervenir à tous.

Mais le rêve d’une voiture autonome peut être plus que nous ne le réalisent. Il y a une inquiétude croissante chez les experts en IA qu’il peut prendre des années, voire des décennies, avant de l’auto-conduite des systèmes de fiable pour éviter les accidents. En tant qu’auto-formés systèmes de prises avec le chaos du monde réel, les experts comme NYU Gary Marcus se préparent à une douloureuse en de réétalonnage attentes, une correction est parfois appelé “AI hiver.” Ce retard pourrait avoir des conséquences désastreuses pour les entreprises de services bancaires sur l’auto-conduite de la technologie, en mettant à la pleine autonomie hors de portée pour toute une génération.

“Les voitures sans conducteur sont comme une expérience scientifique où nous ne savons pas la réponse”

Il est facile de voir pourquoi les compagnies de voiture sont optimistes au sujet de l’autonomie. Au cours des dix dernières années, l’apprentissage en profondeur — une méthode qui utilise des couches de la machine-les algorithmes d’apprentissage pour extraire des informations structurées à partir d’ensembles de données massives — a conduit presque impensable progrès dans l’IA et de l’industrie de haute technologie. Il alimente de Recherche de Google, Facebook Flux d’Actualités, de conversation discours-à-texte algorithmes, et champion de l’Aller-systèmes de jeu. En dehors de l’internet, nous utilisons l’apprentissage en profondeur pour détecter les tremblements de terre, de prédire les maladies cardiaques, et l’indicateur de comportement suspect sur un flux de caméra, ainsi que d’innombrables innovations qui aurait été impossible autrement.

Mais au plus profond de l’apprentissage nécessite des quantités massives de données sur la formation pour le travail correctement, en intégrant presque tous les cas de figure, l’algorithme va rencontrer. Des systèmes comme Google Images, par exemple, sont très à reconnaître les animaux tant qu’ils ont les données d’entraînement pour leur montrer ce que chaque animal ressemble. Marcus décrit ce genre de tâche “interpolation”, en prenant un sondage auprès de toutes les images étiquetées “ocelot” et de décider si la nouvelle image appartient au groupe.

Les ingénieurs peuvent faire preuve de créativité dans la provenance des données et comment il est structuré, mais il impose une limite sur la façon dont beaucoup d’un algorithme donné peut atteindre. Le même algorithme ne peut pas reconnaître un ocelot, sauf s’il a vu des milliers de photos de un ocelot — même si c’est vu des photos d’un chat et des jaguars, et sait ocelots sont quelque part entre les deux. Ce processus, appelé “la généralisation,” nécessite un ensemble différent de compétences.

Pendant longtemps, les chercheurs ont pensé qu’ils pourraient améliorer la généralisation des compétences avec le droit des algorithmes, mais la recherche récente a montré que les classiques de l’apprentissage profond est encore pire à la généralisation que nous le pensions. Une étude a révélé que les classiques de l’apprentissage profond de systèmes ont un moment difficile, même généraliser à travers les différentes images d’une vidéo, l’étiquetage, le même l’ours polaire comme un babouin, mangouste, ou belette en fonction des variations mineures dans le fond. Avec chaque classification fondée sur des centaines de facteurs dans l’ensemble, même de petits changements pour des images peuvent changer complètement le système du jugement, quelque chose d’autres chercheurs ont mis à profit de confrontation des ensembles de données.

Marcus points pour le chat bot engouement que l’exemple le plus récent de la hype de course contre la généralisation du problème. “On nous avait promis de chat bots en 2015”, dit-il, “mais elles ne sont pas toutes bonnes, car ce n’est pas seulement une question de la collecte de données.” Lorsque vous parlez à une personne en ligne, vous ne voulez pas seulement à ressasser précédentes conversations. Vous souhaitez répondre à ce que vous êtes en train de dire, en s’appuyant sur de plus larges compétences de conversation pour produire une réponse unique à vous. L’apprentissage en profondeur ne pouvais tout simplement pas faire ce genre de chat bot. Une fois le battage médiatique délavé, les entreprises ont perdu la foi en leur chat bot projets, et il y a très peu encore en développement actif.

Que les feuilles de Tesla et d’autres de l’autonomie des entreprises avec un effrayant question: auto-conduite des voitures continuent de s’améliorer, comme la recherche d’images, la reconnaissance de la voix, et l’autre de réussite à l’insémination des histoires? Ou vont-ils courir dans la généralisation problème comme le chat bots? C’est l’autonomie d’un problème d’interpolation ou d’une généralisation du problème? Comment est imprévisible conduite, vraiment?

C’est peut-être trop tôt pour le savoir. “Les voitures sans conducteur sont comme une expérience scientifique où nous ne savons pas la réponse,” Marcus dit. Nous n’avons jamais été en mesure d’automatiser la conduite, à ce niveau avant, de sorte que nous ne savons pas ce genre de tâche qu’il est. Dans la mesure où il est à propos de l’identification des objets familiers et les règles suivantes, les technologies existantes doivent être à la hauteur. Mais Marcus soucis que conduire à un accident sujettes à des scénarios peut être plus compliqué que l’industrie veut bien l’admettre. “Dans la mesure où surprenant de nouvelles choses, ce n’est pas une bonne chose pour l’apprentissage en profondeur.”

“La sécurité n’est pas seulement à propos de la qualité de l’IA technologie”

Les données expérimentales que nous avons vient de publique de rapports d’accident, qui offre certaines des rides. Une fatale 2016 crash a vu un Modèle de route à toute vitesse sur la partie arrière d’un blanc tracteur semi-remorque, confondu par le haut de la hauteur de la remorque et lumineux reflet du soleil. En Mars, un auto-conduite Uber crash en Mars tué une femme poussant un vélo, après qu’elle a émergé d’une autorisation de passage pour piétons. Selon le rapport du NTSB, Uber est un logiciel identifié la femme comme un objet inconnu, puis un véhicule, puis, enfin, un local à vélos, à l’actualisation de ses projections à chaque fois. Dans une Californie crash, un Modèle X dirigé vers une barrière et accéléré dans les moments avant l’impact, pour des raisons qui restent floues.

Chaque accident semble être un cas limite, le genre de chose que les ingénieurs ne pouvait pas s’attendre à prévoir à l’avance. Mais presque chaque voiture de l’accident implique une sorte de circonstances imprévues, et sans pouvoir généraliser, auto-conduite des voitures devront faire face à chacun de ces scénarios, comme si pour la première fois. Le résultat serait une chaîne de fluke-y les accidents qui ne sont pas moins fréquents ou moins dangereux que le temps passe. Pour les sceptiques, un tour à travers le manuel de désengagement des rapports montre que le scénario est déjà en bonne voie, avec les progrès déjà atteint un plateau.

De lecteur.AI fondateur Andrew Ng, un ancien Baidu exécutif et de l’industrie le plus éminent des boosters, argumente le problème est moins la construction d’un parfait système de conduite de la formation à d’autres personnes d’anticiper l’auto-comportement de conduite. En d’autres termes, nous pouvons faire de la sécurité des routes pour les voitures au lieu de l’inverse. Comme exemple d’un imprévisible cas, je lui ai demandé s’il croyait que les systèmes modernes pourrait gérer un piéton sur un pogo stick, même si elles n’avaient jamais vu avant. “Je pense que beaucoup de AV équipes pourrait gérer un pogo stick utilisateur dans le passage pour piétons,” Ng m’a dit. “Ayant dit que, rebondissant sur un pogo stick au milieu d’une autoroute serait vraiment dangereux.”

“Plutôt que de construire de l’IA pour résoudre le pogo stick problème, nous devons associer avec le gouvernement de demander aux gens d’être légitime et prévenant,” dit-il. “La sécurité n’est pas seulement à propos de la qualité de l’IA de la technologie.”

“Ce n’est pas facilement un problème isolé”

L’apprentissage en profondeur n’est pas la seule technique d’insémination, et les entreprises sont déjà à explorer des solutions de rechange. Bien que les techniques sont étroitement gardés au sein de l’industrie (il suffit de regarder Waymo du récent procès contre Uber), de nombreuses entreprises ont opté pour la règle de base de l’IA, une ancienne technique qui permet à des ingénieurs de coder en dur des comportements spécifiques ou logique dans une autre auto-dirigé système. Il n’a pas la même capacité à écrire ses propres comportements par l’étude des données, qui est ce qui rend l’apprentissage en profondeur tellement excitant, mais elle permettrait aux entreprises d’éviter certains de l’apprentissage en profondeur de ses limites. Mais les tâches de base de la perception encore profondément marqués par de profonds des techniques d’apprentissage, il est difficile de dire comment avec succès les ingénieurs peuvent quarantaine d’éventuelles erreurs.

Ann Miura-Ko, un capital-risqueur qui siège sur le conseil d’administration de Lyft, dit qu’elle pense que le problème est en partie des attentes élevées pour les voitures autonomes eux-mêmes, de les classer rien de moins que la pleine autonomie comme un échec. “Pour les attendre pour aller de zéro à cinq niveaux est un décalage entre les attentes de plus que l’échec de la technologie,” Miura-Ko dit. “Je vois tous ces micro-améliorations de caractéristiques exceptionnelles sur le chemin vers la pleine autonomie”.

Encore, il n’est pas clair combien de temps l’auto-conduite, les voitures peuvent rester dans leurs limbes. Semi-autonomes, les produits comme la Tesla pilote automatique sont assez intelligents pour gérer la plupart des situations, mais qui nécessitent une intervention humaine si quelque chose de trop imprévisible se produit. Quand quelque chose tourne mal, il est difficile de savoir si la voiture ou le pilote est à blâmer. Pour certains critiques, l’hybride est sans doute moins sûr qu’un pilote, même si les erreurs sont difficiles à blâmer entièrement sur la machine. Une étude menée par la Rand corporation estime que l’auto-conduite des voitures aurait dû conduire à 275 millions de kilomètres sans une fatalité pour prouver qu’ils étaient aussi sûrs que les conducteurs humains. Le premier décès lié à la Tesla pilote automatique est venu près de 130 millions de kilomètres dans le projet, bien en deçà de la marque.

Mais avec l’apprentissage en profondeur assise au cœur de la façon dont les voitures de percevoir les objets et décident d’y répondre, d’améliorer le taux d’accident peut être plus difficile qu’il n’y paraît. “Ce n’est pas facile d’isoler le problème,” dit le Duc professeur Marie Cummings, pointant vers un Uber accident qui a tué un piéton plus tôt cette année. “La perception-décision cycle est souvent liée, comme dans le cas de la zone piétonne de la mort. Une décision a été prise de ne rien faire basé sur l’ambiguïté dans la perception, et le freinage d’urgence a été arrêtée parce qu’elle a trop de fausses alarmes à partir du capteur”

L’accident est terminé avec Uber pause de son auto-conduite des efforts pour l’été, un mauvais signe pour les autres entreprises de la planification des déploiements. Dans l’industrie, les entreprises sont en course pour plus de données pour résoudre le problème, en supposant que la société avec le plus de miles va construire la plus forte du système. Mais où les entreprises y voient un problème de données, Marcus voit quelque chose de beaucoup plus difficile à résoudre. “Ils sont juste en utilisant les techniques qu’ils ont dans l’espoir qu’il va travailler,” Marcus dit. “Ils s’appuyant sur le big data parce que c’est la béquille qu’ils ont, mais il n’y a pas de preuve que jamais, vous reçoit au niveau de la précision que nous avons besoin.”