Nu använder Google AI för att designa marker, mycket snabbare än mänskliga ingenjörer kan göra jobbet

0
129

 Daphne Leprince-Ringuet

Av Daphne Leprince-Ringuet | 11 juni 2021 – 14:43 GMT (15:43 BST) | Ämne: Processorer

 gettyimages-1094304672.jpg

På bara sex timmar har modellen skulle kunna generera en design som optimerar placeringen av olika komponenter på chipet.

Kokouu/Getty Images

Ett team av forskare från Google har presenterat en ny AI-modell som kan komma med komplexa chipdesigner på några timmar – en besvärlig, invecklad uppgift som vanligtvis tar månader för mänskliga ingenjörer att slutföra.

Forskarna använde en dataset med 10 000 chiplayouter för att mata en maskininlärningsmodell, som sedan utbildades med förstärkningslärande. Det visade sig att modellen på bara sex timmar kunde generera en design som optimerar placeringen av olika komponenter på chipet för att skapa en slutlig layout som uppfyller driftskrav som processhastighet och energieffektivitet.

Metodens framgång är sådan att Google redan har använt modellen för att utforma sin nästa generation av tensorbehandlingsenheter (TPU), som körs i företagets datacenter för att förbättra prestandan hos olika AI-applikationer.

“Vår RL-agent (förstärkningsinlärning) genererar chiplayouter på bara några timmar, medan mänskliga experter kan ta månader”, twittrade Anna Goldie, forskare på Google Brain, som deltog i forskningen. “Dessa övermänskliga AI-genererade layouter användes i Googles senaste AI-accelerator (TPU-v5)!”

Moderna chips innehåller miljarder olika komponenter som läggs ut och är kopplade på en kiselstorlek som en nagel. Till exempel kommer en enda processor vanligtvis att innehålla tiotals miljoner logiska grindar, även kallade standardceller, och tusentals minnesblock, så kallade makroblock – som sedan måste kopplas ihop.

Placeringen av standardceller och makroblock på chipet är avgörande för att bestämma hur snabbt signaler kan överföras på chipet, och därför hur effektiv slutanordningen kommer att vara.

Det är därför mycket av ingenjörernas arbete fokuserar på att optimera chipets layout. Det börjar med att placera de större makroblocken, en process som kallas “golvplanning” och som består av att hitta den bästa konfigurationen för komponenterna med tanke på att standardceller och ledningar måste placeras i det återstående utrymmet.

Antalet möjliga layouter för makroblock är kolossala: enligt Googles forskare finns det potentiellt tio till kraften av 2500 olika konfigurationer att testa – det vill säga 2500 nollor efter 1.

Vad mer: när en ingenjör har kommit med en layout är det troligt att de därefter måste justera och justera designen när standardceller och ledningar läggs till. Varje iteration kan ta upp till flera veckor.

Med tanke på den noggranna komplexiteten i golvplanering verkar hela processen vara en självklar matchning för automatisering. Men under flera decennier har forskare inte lyckats komma med en teknik som kan ta bort bördan av planering för ingenjörer.

Chipsdesigners kan lita på datorprogramvara för att hjälpa dem i uppgiften, men det tar fortfarande många månader att ta reda på hur man bäst monterar komponenter på enheten.

Och utmaningen blir bara svårare. Den ofta citerade Moore-lagen förutspår att antalet transistorer på ett chip fördubblas varje år – vilket innebär att ingenjörer står inför en ekvation som växer exponentiellt med tiden, samtidigt som de fortfarande måste uppfylla snäva scheman.

Detta är anledningen till att Googles uppenbarligen framgångsrika försök att automatisera planläggning kan förändra spelet. “Mycket trevligt arbete från Google med djup RL-baserad optimering för chiplayout”, twittrade Yann LeCun, chef för AI-forskare på Facebook, och gratulerade teamet till att ha övervunnit “40 år” av försök att lösa utmaningen.

Googles nya AI-modell kunde knappast landa vid en bättre tidpunkt: halvledarindustrin är för närvarande rockad av en global brist på marker som slår till ett antal sektorer, allt från konsumentelektronik till bilindustrin.

Även om bristen har orsakats av otillräcklig kapacitet på tillverkningsnivå snarare än utformningen av halvledare, är det fortfarande att minska den tid det tar att uppfinna nästa generations marker kan utgöra en välkommen lättnad för hela leveranskedjan.

Vetenskaplig tidskrift Nature välkomnade för det första den nya metoden. “Forskare på Google har lyckats reducera den tid som krävs för att designa mikrochips kraftigt”, sa de. “Detta är en viktig prestation och kommer att vara till stor hjälp för att påskynda försörjningskedjan.”

Även om maskininlärningsmodellen kan påverka branschen som helhet, är det värt att hålla ett öga på Googles eget bruk av tekniken också.

Sökjätten har länge varit tydlig att dess ambition är att skapa egna processorer internt, särskilt i form av system-on-chips (SoC).

Relaterade ämnen:

Google Hardware Intel ARM Artificial Intelligence Innovation  Daphne

Av Daphne Leprince-Ringuet | 11 juni 2021 – 14:43 GMT (15:43 BST) | Ämne: Processorer