Jetzt verwendet Google KI, um Chips zu entwickeln, viel schneller, als menschliche Ingenieure die Arbeit erledigen können

0
149

Daphne Leprince-Ringuet

Von Daphne Leprince-Ringuet | 11. Juni 2021 – 14:43 GMT (15:43 BST) | Thema: Prozessoren

 gettyimages-1094304672.jpg

In nur sechs Stunden ist das Modell könnte ein Design generieren, das die Platzierung verschiedener Komponenten auf dem Chip optimiert.

Kokouu/Getty Images

Ein Forscherteam von Google hat ein neues KI-Modell vorgestellt, das innerhalb von Stunden komplexe Chipdesigns entwickeln kann – eine mühsame, komplizierte Aufgabe, die menschliche Ingenieure normalerweise Monate brauchen.

Die Forscher verwendeten einen Datensatz mit 10.000 Chip-Layouts, um ein Modell für maschinelles Lernen zu füttern, das dann mit Reinforcement Learning trainiert wurde. Es stellte sich heraus, dass das Modell in nur sechs Stunden ein Design generieren konnte, das die Platzierung verschiedener Komponenten auf dem Chip optimiert, um ein endgültiges Layout zu erstellen, das Betriebsanforderungen wie Verarbeitungsgeschwindigkeit und Energieeffizienz erfüllt.

Der Erfolg der Methode ist so groß, dass Google das Modell bereits verwendet hat, um seine nächste Generation von Tensor Processing Units (TPUs) zu entwerfen, die in den Rechenzentren des Unternehmens laufen, um die Leistung verschiedener KI-Anwendungen zu verbessern.

“Unser RL-Agent (Reinforcement Learning) generiert Chip-Layouts in wenigen Stunden, während menschliche Experten Monate brauchen können”, twitterte Anna Goldie, Forscherin bei Google Brain, die an der Forschung beteiligt war. “Diese übermenschlichen KI-generierten Layouts wurden in Googles neuestem KI-Beschleuniger (TPU-v5) verwendet!”

Moderne Chips enthalten Milliarden verschiedener Komponenten, die auf einem fingernagelgroßen Stück Silizium angeordnet und verbunden sind. Ein einzelner Prozessor enthält beispielsweise typischerweise mehrere zehn Millionen Logikgatter, auch Standardzellen genannt, und Tausende von Speicherblöcken, sogenannte Makroblöcke, die dann miteinander verdrahtet werden müssen.

Die Platzierung von Standardzellen und Makroblöcken auf dem Chip ist entscheidend dafür, wie schnell Signale auf dem Chip übertragen werden können und damit wie effizient das Endgerät ist.

Aus diesem Grund konzentriert sich ein Großteil der Arbeit der Ingenieure auf die Optimierung des Chip-Layouts. Es beginnt mit dem Platzieren der größeren Makroblöcke, einem Prozess namens “Floorplanning”, der darin besteht, die beste Konfiguration für die Komponenten zu finden, wobei zu berücksichtigen ist, dass im verbleibenden Raum Standardzellen und Verkabelung platziert werden müssen.

Die Zahl der möglichen Layouts für Makroblöcke ist enorm: Laut Google-Forschern gibt es potenzielle zehn hoch 2.500 verschiedene Konfigurationen, die auf den Prüfstand gestellt werden können – also 2.500 Nullen nach der 1. 

Mehr noch: Hat ein Ingenieur einmal ein Layout erstellt, muss er wahrscheinlich das Design nachträglich optimieren und anpassen, da Standardzellen und Verkabelung hinzugefügt werden. Jede Iteration kann bis zu mehreren Wochen dauern.

Angesichts der mühsamen Komplexität der Grundrissplanung scheint der gesamte Prozess der Automatisierung offensichtlich gewachsen zu sein. Doch seit mehreren Jahrzehnten ist es Forschern nicht gelungen, eine Technologie zu entwickeln, die Ingenieure von der Grundrissplanung befreit.

Chipdesigner können sich auf Computersoftware verlassen, die sie bei dieser Aufgabe unterstützt, aber es dauert noch viele Monate, um herauszufinden, wie Komponenten am besten auf dem Gerät montiert werden.

Und die Herausforderung wird immer schwieriger. Das viel zitierte Moore-Gesetz sagt voraus, dass sich die Anzahl der Transistoren auf einem Chip jedes Jahr verdoppelt – was bedeutet, dass Ingenieure mit einer Gleichung konfrontiert sind, die mit der Zeit exponentiell wächst und dennoch enge Zeitpläne einhalten muss.

Aus diesem Grund könnte der anscheinend erfolgreiche Versuch von Google, die Grundrissplanung zu automatisieren, bahnbrechend sein. „Sehr schöne Arbeit von Google an einer tiefen RL-basierten Optimierung für das Chip-Layout“, twitterte Yann LeCun, leitender KI-Wissenschaftler bei Facebook, und gratulierte dem Team zur Überwindung der „40 Jahre“ Versuche, die Herausforderung zu lösen.

Das neue KI-Modell von Google könnte kaum zu einem besseren Zeitpunkt landen: Die Halbleiterindustrie wird derzeit von einem weltweiten Mangel an Chips erschüttert, der eine Reihe von Sektoren erfasst, von der Unterhaltungselektronik bis zur Automobilindustrie.

Obwohl der Mangel durch unzureichende Fähigkeiten auf Fertigungsebene und nicht durch das Design von Halbleitern verursacht wurde, könnte eine Verkürzung der Zeit, die für die Erfindung von Chips der nächsten Generation benötigt wird, eine willkommene Erleichterung für die gesamte Lieferkette.

Das Wissenschaftsjournal Nature begrüßte die neue Methode. “Forscher bei Google haben es geschafft, die Zeit, die zum Entwerfen von Mikrochips benötigt wird, erheblich zu verkürzen”, sagten sie. “Dies ist ein wichtiger Erfolg und wird eine große Hilfe bei der Beschleunigung der Lieferkette sein.”

Obwohl sich das Modell des maschinellen Lernens auf die gesamte Branche auswirken könnte, lohnt es sich, auch den Einsatz der Technologie durch Google im Auge zu behalten.

Der Suchmaschinengigant hat schon seit langem ausdrücklich sein Bestreben darin zu bestehen, benutzerdefinierte Prozessoren im eigenen Haus zu entwickeln, insbesondere in Form von Systems-on-Chips (SoCs).

Verwandte Themen:

Innovation der künstlichen Intelligenz von Google Hardware Intel ARM  .Daphne Leprince-Ringuet

Von Daphne Leprince-Ringuet | 11. Juni 2021 – 14:43 GMT (15:43 BST) | Thema: Prozessoren