Nå bruker Google AI for å designe sjetonger, langt raskere enn menneskelige ingeniører kan gjøre jobben

0
153

 Daphne Leprince-Ringuet

Av Daphne Leprince-Ringuet | 11. juni 2021 – 14:43 GMT (15:43 BST) | Emne: Prosessorer

 gettyimages-1094304672.jpg

På bare seks timer har modellen kunne generere et design som optimaliserer plasseringen av forskjellige komponenter på brikken.

Kokouu/Getty Images

Et team av forskere fra Google har avduket en ny AI-modell som kan komme med komplekse chipdesign på få timer – en belastende, intrikat oppgave som vanligvis tar måneder for menneskelige ingeniører å fullføre.

Forskerne brukte et datasett på 10.000 chiplayout for å mate en maskinlæringsmodell, som deretter ble trent med forsterkningslæring. Det viste seg at på bare seks timer kunne modellen generere et design som optimaliserer plasseringen av forskjellige komponenter på brikken, for å lage et endelig oppsett som tilfredsstiller operasjonelle krav som prosesseringshastighet og effektivitet.

Metodens suksess er slik at Google allerede har brukt modellen til å designe neste generasjon tensor prosesseringsenheter (TPUer), som kjører i selskapets datasentre for å forbedre ytelsen til ulike AI-applikasjoner.

“Vår RL-agent (forsterkningslæring) genererer chipoppsett på få timer, mens menneskelige eksperter kan ta flere måneder,” tvitret Anna Goldie, forsker ved Google Brain, som deltok i forskningen. “Disse overmenneskelige AI-genererte layoutene ble brukt i Googles siste AI-akselerator (TPU-v5)!”

Moderne chips inneholder milliarder av forskjellige komponenter som er lagt ut og koblet på et stykke silisium på størrelse med en negl. For eksempel vil en enkelt prosessor typisk inneholde titalls millioner logiske porter, også kalt standardceller, og tusenvis av minneblokker, kjent som makroblokker – som deretter må kobles sammen.

Plasseringen av standardceller og makroblokker på brikken er avgjørende for å bestemme hvor raskt signaler kan overføres på brikken, og derfor hvor effektiv sluttenheten vil være.

Dette er grunnen til at mye av ingeniørenes arbeid fokuserer på å optimalisere brikkens layout. Det begynner med å plassere de større makroblokkene, en prosess som kalles “gulvplanlegging”, og som består i å finne den beste konfigurasjonen for komponentene mens du husker at standardceller og ledninger må plasseres i gjenværende plass.

Antallet mulige oppsett for makroblokker er kolossalt: ifølge Googles forskere er det potensielt ti til kraften på 2500 forskjellige konfigurasjoner som skal testes – det vil si 2500 nuller etter 1.

Hva mer: når en ingeniør har kommet med et oppsett, er det sannsynlig at de senere må finjustere og justere designet etter hvert som standardceller og ledninger legges til. Hver iterasjon kan ta opptil flere uker.

Gitt den grundige kompleksiteten i planlegging, virker hele prosessen som en åpenbar kamp for automatisering. Likevel har forskere i flere tiår ikke klart å finne en teknologi som kan fjerne byrden av planlegging for ingeniører.

Chipsdesignere kan stole på dataprogramvare for å hjelpe dem i oppgaven, men det tar fremdeles mange måneder å finne ut hvordan man best monterer komponenter på enheten.

Og utfordringen blir bare vanskeligere. Den ofte siterte Moore-loven forutsier at antall transistorer på en brikke fordobles hvert år – noe som betyr at ingeniører står overfor en ligning som vokser eksponentielt med tiden, mens de fortsatt må oppfylle stramme tidsplaner.

Dette er grunnen til at Googles tilsynelatende vellykkede forsøk på å automatisere planlegging kan endre spillet. “Veldig fint arbeid fra Google med dyp RL-basert optimalisering for chiplayout,” tvitret Yann LeCun, sjef AI-forsker på Facebook, og gratulerte teamet med å ha overvunnet “40 år” med forsøk på å løse utfordringen.

Googles nye AI-modell kunne knapt lande på et bedre tidspunkt: halvlederindustrien er for øyeblikket rystet av en global mangel på sjetonger som treffer en rekke sektorer, alt fra forbrukerelektronikk til bilindustrien.

Selv om mangelen er forårsaket av utilstrekkelig kapasitet på fabrikasjonsnivå, snarere enn utformingen av halvledere, gjenstår det at å kutte tiden det tar å finne opp neste generasjons sjetonger, kan utgjøre en velkommen lettelse for hele forsyningskjeden.

Vitenskapelig tidsskrift Nature, for en, ønsket den nye metoden velkommen. “Forskere hos Google har klart å redusere tiden som trengs for å designe mikrochips,” sa de. “Dette er en viktig prestasjon og vil være til stor hjelp for å få fortgang i forsyningskjeden.”

Selv om maskinlæringsmodellen kan påvirke bransjen som helhet, vil det være verdt å holde øye med Googles egen bruk av teknologien også.

Søkegiganten har lenge vært eksplisitt at dets ambisjon er å lage tilpassede prosessorer internt, spesielt i form av systems-on-chips (SoCs).

Relaterte emner:

Google Hardware Intel ARM Artificial Intelligence Innovation  Daphne

Av Daphne Leprince-Ringuet | 11. juni 2021 – 14:43 GMT (15:43 BST) | Tema: Prosessorer