Google Hjernen, Microsoft Lod de Mysterier af Netværk med AI

0
137

Nul

Vi lever i en alder af netværk. Fra den sociale graf af Facebook til vekselvirkninger mellem proteiner i kroppen, mere og mere af verden er ved at blive undfanget af og repræsenteret som forbindelserne i et netværk.

Og forståelse af disse sammenhænge kan nogle gange have en fantastisk forretningsmæssige konsekvenser, som når Larry Page og Sergey Brin fra Stanford University først foreslået modelleret netværk af Web sider, der hedder “PageRank,” grundlaget for Google.

Nogle tunge drenge inden for kunstig intelligens har arbejdet på måder at gøre machine learning teknikker klogere om forståelse netværk. I slutningen af sidste uge, en gruppe af disse forskere rapporteret om fremskridt i at have en neurale netværk, finde ud af strukturen af forskellige netværk, uden at have fuld viden om alle af et netværk.

Også: Top 5: Ting at vide om AI TechRepublic

Papiret med titlen “Dybt Graf Infomax,” er skrevet af ledende forfatter Petar Veličković af Cambridge University, sammen med navn som egentlig betyder yoshua Bengio og William Hamilton i Montréal Institute for Learning Algoritmer, forskere på Microsoft, Google ‘ s Google Hjernen enhed, og Stanford University. De foreslår en ny måde at dechifrere usete dele af netværk.

Deres opfindelse, den Dybe Graf Infomax, distribuerer informationer om hele det sociale netværk Reddit, om end ufuldstændigt, for at finde ud af detaljer om mindre, “lokale” kvarterer i Reddit. Det er en slags arbejde tilbage, og fra store billeder til små spor.

Et netværk kan være et sæt af ting, der er medlem af forbindelser. I tilfælde af Reddit, enkelte indlæg via Reddit medlemmer har links til andre indlæg, og det net af forbindelser mellem stillinger, der er med til at give sammenhæng og mening til det enkelte indlæg. De opgaver, der her var til det neurale netværk til at forudsige, “ef-struktur” af Reddit netværk.

Men der er en skalering problem: i et meget stort netværk, som Reddit, med millioner af indlæg, er det umuligt at samle alle de stillinger og deres forbindelser fra en stående start. Dette er et problem, Page og Brin første står over for, når de var ved at bygge Google i slutningen af 90’erne: PageRank var at kortlægge alle de Web-uden at være i stand til at “se” dele af det netværk, der var endnu ukendt.

Løsningen indebærer et stykke de modstand i at kombinere flere gennembrud i neurale netværk.

Også: MIT ups ante i at få en AI til at undervise en anden.

De forfattere, der er tilpasset en tidligere kendt som “Dybt Infomax” af en af de forfattere, Microsofts R. Devon Hjelm. Hjelm er Dybt Infomax var at forsøge at forbedre image anerkendelse, ikke netværk. Ved udveksling af oplysninger mellem patches på et billede, på den ene side, og høj-niveau “repræsentationer” af sådanne billeder, en proces kendt som “gensidig information,” Dybt Infomax var i stand til at klare sig bedre end andre former for billed-genkendelse.

Forfatterne fandt den Dybt Infomax tilgang og oversatte det fra billeder til nettet repræsentationer. De har uddannet en convolutional neurale netværk, eller CNN, at koordinere, hvad der er kendt om et lille område af netværkets topologi med, hvad der er kendt om nettet generelt. Ved at gøre det, de re-skabt “etiketter”, som leveres normalt af mennesker til at uddanne en AI model. Brug af den gensidige information i det væsentlige re-skaber “tilsyn”, som etiketter, der normalt giver til et neuralt netværk.

Forfatterne gør opmærksom på, at de Dybt Graf Infomax er i stand til at være konkurrencedygtige med andre programmer til at analysere grafer, at det har der aldrig før er set, kendt som induktiv analyse. Mens andre tilgange ved, om detaljerne i en del af netværket, hver “knude” i modellen forfatterne skabt “har adgang til de strukturelle egenskaber af hele graf” af netværket.

Det er interessant, ved alle typiske tilgange til netværk, analyse, der er kendt som en “random walk,” skriver forfatterne, at deres tilgang er mere sofistikerede end andre analyser.

“Random-walk mål er kendt over understrege nærhed oplysninger på bekostning af strukturel information.” I den forstand tilfældig gang har en bias, noget AI-forskere gerne vil fjerne.

I modsætning, Dybt Graf Infomax gør det, så hver enkelt node i netværket er “opmærksom på den globale strukturelle egenskaber af grafen.”

Der er en større punkt til rapporten: neurale netværk, der kan matche oplysninger om detaljer med oplysninger om det store billede, kan opnå en bedre “repræsentationer.” Repræsentationer betyde at have et højere niveau af abstraktion om et emne. Som sådan, er det arbejde, der bidrager til den fortsatte søgen efter at give AI højere niveauer af forståelse end den blotte sammenhæng, som den er fokuseret.

Tidligere og relaterede dækning

Hvad er AI? Alt, hvad du behøver at vide

En executive guide til kunstig intelligens, fra machine learning og generelt AI til neurale netværk.

Hvad er dyb læring? Alt, hvad du behøver at vide

Den lowdown på en dyb læring: fra hvordan det relaterer til det bredere felt af machine learning igennem til, hvordan du kommer i gang med det.

Hvad er machine learning? Alt, hvad du behøver at vide

Denne vejledning forklarer, hvad machine learning er, hvordan det er relateret til kunstig intelligens, hvordan det fungerer, og hvorfor det er vigtigt.

Hvad er cloud computing? Alt, hvad du behøver at vide om

En introduktion til cloud computing-lige fra det grundlæggende op til IaaS og PaaS, hybrid, offentlige og private cloud.

Relaterede Emner:

Netværk

Digital Transformation

CXO

Tingenes Internet

Innovation

Virksomhedens Software

0