MIT-Forscher entwickelten ein Computer-Modell, die Ziele zu erfassen, die menschlichen Elemente der Gesichtserkennung und implementieren Sie in unsere künstliche Intelligenz (KI) und maschinelles lernen-Systeme.
Am Donnerstag, dem MIT zeigte die Forschung, durchgeführt am Zentrum für Gehirn, Geist und Maschinen (CBMM), mit Hauptsitz am Massachusetts Institute of Technology.
Der Forscher entwickelt ein machine-learning-system implementiert, das neue Modell, und Sie ausgebildet haben, es zu erkennen, Sätze von bestimmten Flächen basierend auf den Beispiel-Bildern, was eine wesentlich präzisere und ‘menschlichen’ Weg, um Gesichter zu erkennen.
Ein interessanter Aspekt des Modells ist die “spontane” neben einer Gesichtserkennung Schritt der Verarbeitung, die stattfindet, wenn ein Bild angezeigt wird, zeigt ein Gesicht, in dem gedreht wird — wie 45 Grad nach Links oder rechts-das war nicht im ursprünglichen Modell.
Das team sagt, dass diese Eigenschaft erschien durch die Ausbildung Prozess, aber es war nicht Teil des ursprünglichen kurzen. Aber auf diese Weise, das Modell “Duplikate einen experimentell beobachteten Merkmal der Primaten-face-Verarbeitung-Mechanismus.”
Als solche, die das Forscherteam glaubt, dass die künstlichen Modell und das Gehirn ‘denke’, die entlang der gleichen Linien.
“Dies ist nicht ein Beweis dafür, dass wir verstehen, was Los ist”, sagt Tomaso Poggio, professor of brain and cognitive sciences am MIT und Direktor des CBBM. “Modelle sind Karikaturen der Wirklichkeit, insbesondere in der Biologie. Also ich wäre überrascht, wenn die Dinge entpuppen diese einfach. Aber ich denke, dass es starke Beweise dafür, dass wir auf dem richtigen Weg sind.”
Die Forscher neue Papier, beschrieben in der Zeitschrift Computational Biology, enthält einen mathematischen Beweis für die computer-Modell.
Das system wird als ein neuronales Netzwerk, wie es versucht zu imitieren die Struktur des menschlichen Gehirns und sind mit einfachen Einheiten, die sind angeordnet in Schichten und die Verbindung von ‘Knoten’, die handeln, wie Informationen-Prozessoren.
Daten werden in das Netzwerk eingespeist, unterteilt in die verschiedenen Gesichts-Anerkennung Kriterien, und insbesondere die Knoten reagieren auf verschiedene Reize. Durch die Trennung der Knoten reagieren die meisten stark auf die verschiedenen Kategorien, die Forscher waren in der Lage, mehr zu produzieren präzise Erkennung von Gesichtern.
Als Knoten “gefeuert” – auf unterschiedliche Weise-die “spontane” Schritt zeigte sich auch.
Während diese Forschung hat einen langen Weg zu gehen, stellt es einen Schritt nach vorne zu vertiefen unser Verständnis des Geistes, und wie könnten wir möglicherweise verbessern, machine-learning-algorithmen und künstliche Intelligenz in facial recognition-Technologien.
“Ich denke, es ist ein wichtiger Schritt nach vorne”, sagt Christof Koch, Präsident und chief scientific officer am Allen Institute for Brain Science. “In diesem Tag und Alter, wenn alles wird dominiert von großen Daten oder große computer-Simulationen, das zeigt, wie Sie einen prinzipiellen Verständnis des Lernens erklären kann, einige rätselhafte Funde.
“Sie sind nur die feed-forward-Weg-in anderen Worten, die ersten 80, 100 Millisekunden. Der Affe öffnet seine Augen, und innerhalb von 80 bis 100 Millisekunden, es erkennt ein Gesicht und einen Knopf drücken, signalisiert, dass,” erläutert Koch. “Die Frage ist, was geht, in diese 80 bis 100 Millisekunden, und das Modell, das Sie haben scheint, zu erklären, dass das ganz gut.”
Anfang dieser Woche haben Forscher von der Augusta-Universität vorgeschlagen, einen Algorithmus, lösen könnte, die Wurzel dessen, was wir als menschliche Intelligenz.