Facebook ‘ s Yann LeCun siger ‘indre aktivitet” provenu på AI chips

0
113

I et interview med ZDNet på den Internationale ssd-Kredsløb-Konference i San Francisco, Yann LeCun, leder af Facebook ‘ s AI Forskning team, sagde selskabet har sit eget arbejde på chips for machine learning i gang, selvom han lød fortrøstningsfuld og overbevist om, at mange løsninger vil komme fra chip-industrien.

“Helt sikkert, det giver mening for virksomheder som Google og Facebook, der har høj volumen til at arbejde på deres egne motorer, hvis industrien ikke giver det,” sagde LeCun, med henvisning til behovet for nye former for forarbejdning teknologi, der er optimeret til dyb læring.

“Hvad Facebook har gjort traditionelt er partner med hardware leverandører til at lokke dem til at opbygge de ting, vi tror er godt for os,” sagde han.

img-8546.jpg

Yann LeCun, leder af Facebook ‘ s Facebook AI enhed for Forskning, der udvikler de grundlæggende gennembrud i dyb læring, at magten af dets produkter, i et interview med ZDNet.

Tiernan Ray til ZDNet

LeCun har i tidligere interviews antydede muligheden af indre chip udvikling. Men forskellen nu er, at der er en intern aktivitet på dette, der var meget nyt på det tidspunkt,” sagde han, hvilket betyder, at fire år siden. Bedt om at uddybe, hvad det indre aktivitet på Facebook, LeCun tøvede. “Jeg ville nok ikke fortælle dig,” sagde han med et grin.

Også: ISSCC 2019 Preview: Moore ‘ s Lov kan være langsommere, men innovation er ikke

Google ‘ s Tensor Processing Unit, eller TPU, blev nævnt af LeCun som et eksempel på den form for intern indsats af store selskaber, han taler om.

Mere bredt, LeCun gentog essentials af sine plenarmøder tale om behovet for en bred industri indsats for at løse dybe læring silicium på mange punkter i hele uddannelsen og inferens proces.

Højdepunkter i LeCun er punkter, der er indeholdt i en video, som han gjorde, indsendt af Facebook AI Forskning mandag morgen.

LeCun har også sendt sine lysbilleder fra hans tale her til morgen.

For eksempel, at der er et påtrængende behov for low-power chips med at arbejde på alle sensor data, der kommer fra mobile enheder, men arbejder på, at data på enhederne selv, snarere end at sende data til skyen.

Så der er områder af compute “i midten”, såsom traditionelle “offline” oplæring af neurale net i skyen og traditionelle inferens i skyen. Begge opgaver forbruger en masse energi, så også her, industrien har brug for at levere mere energi-effektiv behandling.

I den højeste ende af det dybe læring fødekæden, i R&D afdelinger af Facebook og andre, der er behov for flere indstillinger ud over den dominerende leverandør Nvidia, hvis Gpu ‘ er er de de-facto løsning for neurale net uddannelse.

“I den meget høje ende, hvad vi har brug for nu, er konkurrenter til den dominerende udbyder på nuværende tidspunkt,” sagde LeCun. “Ikke fordi de ikke er gode til det, men fordi de laver antagelser, og det ville være rart at have et andet sæt af hardware, der gør forskellige antagelser, der kan bruges til supplerende ting, at den aktuelle afgrøde af Gpu’ er er gode til.”

Men, hvordan disse alternative chips skal være struktureret, er et åbent spørgsmål, Sagde LeCun. Det er klart, at i morgen er neurale net vil være langt større end i dag, sagde han, på grund af ting, som de har brug for at tage en hel video-feed, og se på tonsvis og tonsvis af pixels, for ting som at forudsige bevægelse fra et videoklip. Men på samme tid, kan sådanne operationer kan have til at blive beregnet med en behandling arkitektur, der er anderledes fra i dag matrix-formere hardware. Matricer og tensors, byggestenene i dagens AI hardware, vil sandsynligvis ikke være den ideelle løsning i fremtiden, sagde han.

State-of-the-art chips er “dybest set er optimeret til at gøre masser af fire-ved-fire matrix ganger,” sagde LeCun. “Så, hvis du kan reducere alle de neurale net til fire-med-fire matrix ganger, okay. Men det kan ikke være en optimal måde at gøre masser af snoninger,” sagde han.

Hvad kan erstatte dem? “Det ved jeg ikke. Jeg tror, den virkelige hardware genier bliver nødt til at opfinde nye måder at gøre disse ting.”

“Til en vis grad, du kan tænke på dette som et lignende sæt af operationer, som vi i øjeblikket gør i neurale net, bortset fra, at den måde, du får adgang til de data, der er gennem interaktioner, i stedet for at tingene kommer til dig i en pæn array, hvad du har, er et array af pointers til at hente data,” for ting som behandling graf-baserede data.

Skal læse

“AI er meget, meget dum, “siger Google’ s AI-leder (CNET), Hvordan man får alle Google Assistant ‘s nye stemmer lige nu (CNET)Samlet Google AI division et klart signal om, at AI’ s fremtid (TechRepublic)Top 5: Ting at vide om AI (TechRepublic)

Der kunne medføre måder at optimere hukommelsen trafik, herunder “intelligent caching” eller udforske dele af grafen i god tid, sagde LeCun.

W”I den sidste ende, det kommer til at være formere tilføjer, spørgsmålet er, kan du sætte det pænt i form af enten en flok af dot-produkter, eller en flok af matrix-vektor ganger, eller en flok af matrix ganger,” forklarede han. “Den nuværende antagelse er, at du kan reducere det til en flok af matrix multipliceres. Jeg tror ikke, der er svaret.”

Uanset hvilke former den nye chip arkitekturer tage, LeCun mener, AI-fokus hardware kan overtage mere og mere af den samlede arbejdsbyrde beregne.

“Jeg ville ikke forsøge at spekulere i form af dollars, men i form af KLAPPERE, eller operationer, hvis du går fem, ti år ud i fremtiden, og du ser på, hvad der gør computere, der bruger deres tid på at gøre, for det meste, jeg tror, de vil være at gøre ting som dyb læring, de fleste af dem. I form af beregning, ikke i form af indtægter, fortjeneste, antallet af computere, antallet af enheder, men i forhold til, hvordan vi bruger vores milliwatt eller KLAPPERE, vil de blive brugt på denne måde.”

Tidligere og relaterede dækning:

Hvad er AI? Alt, hvad du behøver at vide

En executive guide til kunstig intelligens, fra machine learning og generelt AI til neurale netværk.

Hvad er dyb læring? Alt, hvad du behøver at vide

Den lowdown på en dyb læring: fra hvordan det relaterer til det bredere felt af machine learning igennem til, hvordan du kommer i gang med det.

Hvad er machine learning? Alt, hvad du behøver at vide

Denne vejledning forklarer, hvad machine learning er, hvordan det er relateret til kunstig intelligens, hvordan det fungerer, og hvorfor det er vigtigt.

Hvad er cloud computing? Alt, hvad du behøver at vide om

En introduktion til cloud computing-lige fra det grundlæggende op til IaaS og PaaS, hybrid, offentlige og private cloud.

Relaterede historier:

Google ‘ s AI surfer “gamescape” for at erobre game theory
Dette er, hvad AI ligner (som skitseret ved AI)
Google ‘ s DeepMind hold med førende 3D spil dev platform
DeepMind ‘ s AI pletter tidlige tegn på øjensygdom

Relaterede Emner:

Big Data Analytics

Digital Transformation

CXO

Tingenes Internet

Innovation

Virksomhedens Software