Selbstfahrende Autos sind in Richtung AI Straßensperre

0
109

Wenn Sie glauben, dass die CEOs, ein völlig Autonomes Fahrzeug könnte sein, nur Monate entfernt ist. Im Jahr 2015, Elon Musk vorhergesagt, eine völlig autonome Tesla bis 2018; so wie Google. Delphi und MobileEye von Level-4-system ist derzeit geplant für 2019, im gleichen Jahr Nutonomy Pläne zur Bereitstellung Tausende von fahrerlosen taxis auf den Straßen von Singapur. GM wird ein voll Autonomes Auto in die Produktion im Jahr 2019, ohne lenkrad oder die Möglichkeit für die Fahrer zu intervenieren. Es ist echtes Geld, hinter diesen Vorhersagen, Wetten auf der Annahme, dass die software in der Lage sein zu fangen bis zu dem hype.

Auf seinem Gesicht, volle Autonomie scheint näher als je zuvor. Waymo ist bereits testen Autos auf begrenzten, aber öffentlichen Straßen in Arizona. Tesla und eine Vielzahl von anderen Nachahmer verkaufen schon eine eingeschränkte form der autopilot, zählen auf Treiber eingreifen, wenn etwas unerwartetes passiert. Es gab ein paar Abstürze, einige tödlich, aber solange die Systeme weiter verbessern, die Logik geht, können wir es nicht so weit, sich nicht zu intervenieren überhaupt.

Aber der Traum von einem vollständig autonomen Fahrzeug kann weiter als uns bewusst ist. Es gibt wachsende Besorgnis der AI-Experten, dass es möglicherweise Jahre, wenn nicht Jahrzehnte, vor dem self-driving-Systeme können zuverlässig Unfälle zu vermeiden. Als selbst ausgebildeter Systeme auseinandersetzen, die mit dem chaos der realen Welt, Experten wie NYU Gary Marcus Aussteifung für eine schmerzhafte Rekalibrierung in Erwartungen, eine Korrektur, manchmal auch als “KI-winter”. Die Verzögerung könnte katastrophale Folgen für die Unternehmen setzen auf self-driving-Technologie, putting volle Autonomie außerhalb der Reichweite für eine ganze generation.

“Fahrerlose Autos sind wie ein wissenschaftliches experiment, bei dem wir nicht wissen, die Antwort”

Es ist leicht zu sehen, warum die Autohersteller optimistisch in die Autonomie. In den letzten zehn Jahren, deep-learning — eine Methode, die verwendet geschichteten machine-learning-algorithmen zum extrahieren von strukturierten Informationen aus den massiven Datenmengen — vorangetrieben hat, fast Undenkbare Fortschritte in der KI-und der tech-Industrie. Es unterstützt Google Suche, die Facebook-News-Feed, conversational speech-to-text-algorithmen und champion Gehen-spielen-Systeme. Außerhalb des internet, wir verwenden tiefes lernen zu erkennen, Erdbeben, Vorhersage von Herzerkrankungen, und die Flagge auf verdächtiges Verhalten auf eine Kamera-feed, zusammen mit zahlreichen anderen Innovationen, die unmöglich gewesen wäre sonst.

Aber deep learning erfordert große Mengen von Trainingsdaten, um richtig zu arbeiten, unter Einbeziehung nahezu jedes Szenario der Algorithmus Begegnung. Systeme wie Google Bilder, zum Beispiel, sind gut zu erkennen die Tiere, so lange haben Sie Trainingsdaten, um Ihnen zu zeigen, was jedes Tier aussieht. Marcus beschreibt diese Art von Aufgabe als “interpolation”,” eine Umfrage in der alle Bilder mit der Bezeichnung “Ozelot” und die Entscheidung, ob das neue Bild gehört in die Gruppe.

Ingenieure können kreativ werden, wo die Daten stammen und wie Sie aufgebaut ist, aber es stellt eine harte Grenze, wie weit eine gegebene Algorithmus erreichen kann. Der gleiche Algorithmus kann nicht erkennen, ein Ozelot, es sei denn, es ist zuvor schon Tausende Bilder von ein Ozelot — auch wenn er Bilder gesehen housecats und jaguars, und weiß, Ozelots sind irgendwo dazwischen. Dieser Prozess, genannt “Verallgemeinerung” erfordert einen unterschiedlichen Satz von Fähigkeiten.

Für eine lange Zeit, die Forscher dachten, Sie könnten verbessern Verallgemeinerung Fähigkeiten mit den richtigen algorithmen, aber die neuere Forschung hat gezeigt, dass herkömmliche deep learning ist noch schlimmer verallgemeinernd als wir dachten. Eine Studie hat herausgefunden, dass herkömmliche deep-learning-Systeme haben eine harte Zeit, auch die Verallgemeinerung über verschiedene frames des Videos, die Kennzeichnung der gleiche Eisbär, der wie ein Pavian, Mungo oder Wiesel je nach geringfügigen Verschiebungen in den hintergrund. Mit jeder Klassifizierung basiert auf Hunderten von Faktoren in der Gesamtheit, schon kleine änderungen an Bildern können völlig verändern das system des Urteils, etwas anderer Forscher zunutze gemacht haben, im wettkampf-Daten-sets.

Marcus Punkte, um den chat-bot-Begeisterung, wie das jüngste Beispiel der hype, der bis gegen die Verallgemeinerung problem. “Uns wurde versprochen chat-bots im Jahr 2015,” sagt er, “aber Sie sind nicht alle gut, weil es nicht nur darum, Daten zu sammeln.” Wenn Sie sprechen, um eine person online, Sie nicht nur will Sie wiederhaben früheren Gesprächen. Sie wollen, dass Sie auf das reagieren, was du sagst, Zeichnung auf der breiteren kommunikativen Fähigkeiten, um zu produzieren eine Antwort, die einzigartig für Sie. Tiefe lernen konnte einfach nicht machen diese Art von chat-bot. Wenn der anfängliche hype verblasst, Unternehmen verloren den glauben an Ihren chat-bot-Projekten, und es gibt nur sehr wenige noch in der aktiven Entwicklung.

Das lässt Tesla und andere Autonomie-Unternehmen mit einem beängstigend, Frage: Werden die selbstfahrenden Autos werden immer besser, wie Bild-Suche, Spracherkennung, und die anderen AI-Erfolgsgeschichten? Oder werden Sie in die Verallgemeinerung problem wie chat-bots??? Ist die Autonomie eine interpolation problem oder eine Verallgemeinerung problem? Wie unberechenbar fahren, wirklich?

Es ist vielleicht zu früh, um zu wissen. “Fahrerlose Autos sind wie ein wissenschaftliches experiment, bei dem wir nicht wissen, die Antwort,” Marcus sagt. Wir haben nie in der Lage zu automatisieren Fahrt auf dieser Ebene vor, so dass wir nicht wissen, welche Art von Aufgabe es ist. Soweit es um die Bestimmung vertraute Gegenstände und folgenden Regeln, bestehende Technologien sollten der Aufgabe gewachsen. Aber Marcus macht sich sorgen, dass fahren auch im Unfall-anfällig Szenarien kann komplizierter sein, als die Branche zugeben möchte. “In dem Maße, dass immer wieder neue überraschende Dinge passieren, es ist nicht eine gute Sache für Tiefe lernen.”

“Sicherheit ist nicht nur über die Qualität der AI-Technologie”

Die experimentellen Daten, die wir haben, kommt von öffentlich-Unfall berichten, von denen jeder bietet einige ungewöhnliche Falten. Ein fataler 2016 crash sah ein Model S fahren voller Geschwindigkeit in den hinteren Teil des weißen Sattelzug, verwirrt durch die hohe Bodenfreiheit des Anhängers und die helle reflektion der Sonne. Im März, eine selbstfahrende Uber-crash im März getötet, eine Frau schieben ein Fahrrad, nachdem Sie sich aus einer unberechtigten Zebrastreifen. Laut dem NTSB-Bericht Uber die software nicht korrekt identifiziert die Frau als unbekanntes Objekt, dann ein Fahrzeug, dann schließlich, als ein Fahrrad, eine Aktualisierung der Projektionen jeder Zeit. In Kalifornien zum Absturz-ein Modell X-gelenkten hin zu einer Schranke und raste bis in den Momenten vor dem Aufprall, aus Gründen, die unklar bleiben.

Jeder Unfall wirkt wie ein edge-Fall, die Art von Sache, die Ingenieure konnten nicht erwartet werden, im Voraus vorherzusagen. Aber fast jedes Auto, Unfall irgendeiner Art von unvorhergesehenen Umständen, und ohne die macht, zu verallgemeinern, selbstfahrende Autos zu konfrontieren jedem dieser Szenarien, als ob es das erste mal. Wäre das Ergebnis eine Zeichenfolge von fluke-y-Unfälle, die einen nicht weniger Häufig oder weniger gefährlich wie die Zeit vergeht. Für Skeptiker, eine Wendung durch die manuelle Entflechtung Berichte zeigt, dass Szenario bereits im Gange, mit der Fortschritte, die bereits ein plateau erreichte.

– Laufwerk.AI-Gründer Andrew Ng, ein ehemaliger Baidu-Vorstand und einer der weltweit prominentesten Booster, argumentiert das problem ist weniger darum, eine perfekte Fahrt system als Trainings-Zuschauer zu antizipieren self-driving Verhalten. In anderen Worten, wir können machen Straßen sicher für die Autos, anstatt die andere Weise herum. Als ein Beispiel für einen unvorhersehbaren Fall, ich fragte ihn, ob er dachte modernen Systemen umgehen konnte ein Fußgänger auf einem pogo-stick, auch wenn Sie nie einen gesehen. “Ich denke, dass viele AV-teams konnte Griff ein pogo-stick-Benutzer in der Fußgängerzone, Zebrastreifen,” Ng hat es mir gesagt. “Having said, die, springen auf einem pogo-stick in der Mitte einer Autobahn wäre wirklich gefährlich.”

“Eher als der Bau von KI zu lösen, um die pogo-stick-problem, wir sollten partner mit der Regierung, um die Menschen aufzufordern rechtmäßig und rücksichtsvoll”, sagte er. “Sicherheit ist nicht nur über die Qualität der AI-Technologie.”

“Dies ist nicht ein leicht Isoliertes problem”

Deep learning ist nicht nur die KI-Technik, und Unternehmen bereits die Erforschung von alternativen. Obwohl Techniken sind eng bewacht, in der Industrie (gerade Blick auf Waymo die aktuelle Klage gegen Uber), viele Unternehmen haben sich zu Regel-basierten AI, eine ältere Technik, die ermöglicht, dass die Ingenieure hart-code bestimmte Verhaltensweisen oder-Logik in eine ansonsten selbstgesteuertes system. Es muss nicht die gleiche Kapazität zu schreiben, seine eigenen Verhaltensweisen nur durch das Studium der Daten, die ist, was macht die Tiefe lernen so spannend, aber es würde die Unternehmen vermeiden, dass einige der deep-learning-Einschränkungen. Aber mit der grundlegenden Aufgaben der Wahrnehmung noch immer zutiefst geprägt von deep-learning-Techniken, ist es schwer zu sagen, wie erfolgreich die Ingenieure können die Quarantäne möglicher Fehler.

Ann Miura-Ko, ein venture capitalist, der sitzt auf dem board of Lyft, sagt Sie, denkt ein Teil des Problems ist, die hohen Erwartungen für autonome Autos selbst, die Klassifizierung von nichts weniger als der vollen Autonomie als ein Fehler. “Erwarten Sie, zu gehen von null auf level fünf ist eine Diskrepanz in den Erwartungen mehr als einen Fehler der Technik,” Miura-Ko sagt. “Ich sehe alle diese Mikro-Verbesserungen außergewöhnlichen Eigenschaften, auf die Reise in Richtung vollständiger Autonomie.”

Noch ist es nicht klar, wie lange selbstfahrenden Autos kann bleiben in Ihrer derzeitigen Schwebezustand. Semi-autonome Produkte wie Tesla-Autopilot-sind klug genug, um die meisten Situationen aber erfordern menschliches eingreifen, wenn alles zu unvorhersehbar passiert. Wenn etwas schief geht, ist es schwer zu wissen, ob das Auto oder der Fahrer ist Schuld. Für einige Kritiker, dass hybrid ist wohl weniger sicher ist als ein menschlicher Fahrer, auch wenn die Fehler werden schwer, ganz auf die Maschine. Eine Studie der Rand corporation schätzt, dass selbstfahrende Autos hätte fahren 275 Millionen Meilen ohne einen Todesfall zu beweisen, dass Sie als sicherer als menschliche Fahrer. Der erste Tod im Zusammenhang mit teslas Autopilot kamen rund 130 Millionen Meilen in das Projekt, sowie kurz der Marke.

Aber mit der deep-learning-sitzt im Herzen, wie Autos wahrnehmen, Objekte und entscheiden, zu reagieren, Verbesserung der Unfallrate kann schwieriger sein als es aussieht. “Dies ist nicht ein leicht Isoliertes problem”, sagt Herzog professor Mary Cummings, die auf einem Uber einen Absturz, der tötete einen Fußgänger früher in diesem Jahr. “Die Wahrnehmung-Entscheidung-Zyklus ist oft verknüpft, wie im Fall der Fußgängerzone Tod. Die Entscheidung, nichts zu tun auf der Grundlage von Mehrdeutigkeiten in der Wahrnehmung, und die Notbremsung wurde abgeschaltet, weil es zu viele falsche Alarme vom sensor”

Absturz endete mit Uber anhalten, Ihre selbst-fahren Bemühungen für den Sommer, ein schlechtes Zeichen für andere Unternehmen, die Planung von rollouts. In der gesamten Branche, Unternehmen racing für mehr Daten um das problem zu lösen, vorausgesetzt, die Unternehmen mit den meisten Meilen baut das stärkste system. Aber wo Unternehmen sehen ein Daten-problem, Marcus sieht etwas, das viel schwieriger zu lösen. “Sie sind nur mit den Techniken, die Sie haben, in der Hoffnung, dass es funktionieren wird”, sagt Marcus. “Sie sind stützte sich auf die big-data-denn das ist die Krücke, die Sie haben, aber es gibt keinen Beweis, dass jemals bekommt Sie auf die Ebene der Präzision, die wir brauchen.”