På kun seks timer er modellen kunne generere et design, der optimerer placeringen af forskellige komponenter på chippen.
Kokouu/Getty Images
Et team af forskere fra Google har afsløret en ny AI-model, der kan komme med komplekse chipdesign på få timer – en besværlig, indviklet opgave, der typisk tager måneder for menneskelige ingeniører at gennemføre.
Forskerne brugte et datasæt på 10.000 chiplayouts til at fodre en maskinlæringsmodel, som derefter blev trænet med forstærkningslæring. Det viste sig, at modellen på kun seks timer kunne generere et design, der optimerer placeringen af forskellige komponenter på chippen for at skabe et endeligt layout, der opfylder driftskrav såsom behandlingshastighed og energieffektivitet.
Metodens succes er sådan, at Google allerede har brugt modellen til at designe sin næste generation af tensorbehandlingsenheder (TPU'er), der kører i virksomhedens datacentre for at forbedre ydeevnen for forskellige AI-applikationer.
“Vores RL-agent (forstærkningslæring) genererer chiplayouter på få timer, mens menneskelige eksperter kan tage måneder,” tweetede Anna Goldie, forsker hos Google Brain, der deltog i forskningen. “Disse overmenneskelige AI-genererede layouts blev brugt i Googles seneste AI-accelerator (TPU-v5)!”
Moderne chips indeholder milliarder af forskellige komponenter lagt ud og forbundet på et stykke silicium på størrelse med en fingernegl. For eksempel vil en enkelt processor typisk indeholde titusindvis af millioner logiske porte, også kaldet standardceller, og tusindvis af hukommelsesblokke, kendt som makroblokke – som derefter skal forbindes sammen.
Placeringen af standardceller og makroblokke på chippen er afgørende for at bestemme, hvor hurtigt signaler kan transmitteres på chippen, og derfor hvor effektiv slutenheden bliver.
Dette er grunden til, at meget af ingeniørernes arbejde fokuserer på at optimere chipens layout. Det starter med at placere de større makroblokke, en proces kaldet “gulvplanlægning”, og som består i at finde den bedste konfiguration til komponenterne, mens man husker på, at standardceller og ledninger skal placeres i det resterende rum.
Antallet af mulige layout for makroblokke er kolossalt: ifølge Googles forskere er der potentielt ti til magten af 2.500 forskellige konfigurationer, der skal testes – det vil sige 2.500 nuller efter 1.
Hvad mere er: når en ingeniør er kommet med et layout, er det sandsynligt, at de efterfølgende skal tilpasse og justere designet, når standardceller og ledninger tilføjes. Hver iteration kan tage op til flere uger.
I betragtning af gulvplanlægningens omhyggelige kompleksitet synes hele processen at være et oplagt match for automatisering. Alligevel har forskere i flere årtier undladt at komme med en teknologi, der kan fjerne byrden ved gulvplanlægning for ingeniører.
Chipdesignere kan stole på computersoftware til at hjælpe dem med opgaven, men det tager stadig mange måneder at finde ud af, hvordan komponenter bedst samles på enheden.
Og udfordringen bliver kun sværere. Den ofte citerede Moore-lov forudsiger, at antallet af transistorer på en chip fordobles hvert år – hvilket betyder, at ingeniører står over for en ligning, der vokser eksponentielt med tiden, mens de stadig skal overholde stramme tidsplaner.
Dette er grunden til, at Googles tilsyneladende vellykkede forsøg på at automatisere grundplanlægning kan ændre spil. “Meget flot arbejde fra Google med dyb RL-baseret optimering til chiplayout,” tweeted Yann LeCun, chef for AI-videnskabsmand hos Facebook, og lykønskede holdet med at have overvundet “40 års” forsøg på at løse udfordringen.
Googles nye AI-model kunne næppe lande på et bedre tidspunkt: halvlederindustrien er i øjeblikket rystet af en global mangel på chips, der rammer en række sektorer lige fra forbrugerelektronik til bilindustrien.
Selvom manglen er forårsaget af utilstrækkelig kapacitet på fabrikationsniveau snarere end design af halvledere, er det fortsat, at at skære den tid, det tager at opfinde næste generations chips, kan udgøre en velkommen lettelse for hele forsyningskæden.
Videnskabelig tidsskrift Nature hilste for den første den nye metode velkommen. “Forskere hos Google har formået i høj grad at reducere den tid, det tager at designe mikrochips,” sagde de. “Dette er en vigtig bedrift og vil være en enorm hjælp til at fremskynde forsyningskæden.”
Selvom maskinlæringsmodellen kan påvirke branchen som helhed, er det også værd at holde øje med Googles egen brug af teknologien.
Søge-giganten har længe været eksplicit, at dets ambition er at oprette brugerdefinerede processorer internt, især i form af systems-on-chips (SoC'er).
Relaterede emner:
Google Hardware Intel ARM kunstig intelligens innovation