Google Hjärnan, Microsoft Lod Mysterier Nätverk med AI

0
137

Noll

Vi lever i en ålder av nätverk. Från den sociala grafen av Facebook till interaktioner av proteiner i kroppen, mer och mer av världen är att bli uppfattade och representerade som anslutningar på ett nätverk.

Och förståelse för dessa anslutningar kan ibland ha fantastisk verksamhet konsekvenser, som när Larry Page och Sergey Brin av Stanford University som först föreslog modelleras nätverk av webbsidor, som kallas för “PageRank”, stiftelsen för Google.

Några tunga hitters i artificiell intelligens har arbetat på olika sätt för att göra maskinen lära sig tekniker smartare om förståelse nätverk. I slutet av förra veckan, en grupp av de forskare rapporterade framsteg i att ha ett neuralt nätverk räkna ut den struktur av olika nätverk utan att ha fullständig kunskap om alla i ett nätverk.

Även: Topp 5: Saker att veta om AI TechRepublic

Uppsatsen, med titeln “den Djupa Graf Infomax” är skriven av ledande författare Petar Veličković av Cambridge University, tillsammans med Yoshua Bengio och William Hamilton i Montréal Institutet för Lärande Algoritmer, forskare på Microsoft, Google är Google Hjärnan enhet, och Stanford University. De föreslår ett nytt sätt att tolka osynliga delar av nätverk.

Deras uppfinning, den Djupa Graf Infomax, distribuerar globala information om hela det sociala nätverket Reddit, om än ofullständig, för att räkna ut detaljer som är av mindre “lokala” stadsdelar inom Reddit. Det är en slags arbeta bakåt och från stora bilder till små ledtrådar.

Ett nätverk kan vara något av de saker som är förenade med anslutningar. I fall av Reddit, enskilda inlägg genom att Reddit-medlemmar har länkar till andra inlägg, och web anslutningar mellan stolparna ger sammanhang och mening till varje inlägg. De uppgifter som här var för neurala nätverk för att förutsäga “gemenskapens struktur” av Reddit-nätverk.

Men det finns en skala problem: i ett mycket stort nätverk som Reddit, med miljontals inlägg, det är omöjligt att samla alla inlägg och deras anslutningar från en stående start. Detta är ett problem Page och Brin första som möter när de höll på att bygga Google i slutet av 90-talet: PageRank hade att kartlägga alla Webb utan att kunna “se” de delar av järnvägsnätet som ännu var okänd.

Lösningen innebär en pièce de resistance kombinera flera genombrott i neurala nätverk.

Också: MIT ups ante på att få en AI att lära en annan.

Författarna anpassade för ett tidigare arbete känd som “Djupt Infomax” av en av författarna, Microsofts R. Devon Hjelm. Hjelm är Djupt Infomax var att försöka förbättra bilden erkännande, inte nätverk. Genom att dela information mellan fläckar av en bild, å ena sidan, och på hög nivå “representationer” av sådana bilder, en process känd som “ömsesidig information,” Djupt Infomax kunde prestera bättre än andra metoder för bildigenkänning.

Författarna tog Djupa Infomax strategi och översatt den från bilder till nätverket representationer. De har tränat en convolutional neurala nätverk, eller CNN, för att samordna vad som är känt om ett litet område av nätverkets topologi med vad som är känt om nätverk generellt. Genom att göra så, de åter-skapade de “etiketter” som vanligtvis tillhandahålls av människor att utbilda en AI-modell. Användning av ömsesidig information i huvudsak re-skapar “tillsyn” som etiketter brukar ge till ett neuralt nätverk.

Författarna påpekar att den Djupa Graf Infomax kan vara konkurrenskraftiga i jämförelse med andra program för att analysera grafer som har det aldrig sett förut, som kallas induktiv analys. Medan andra metoder endast vet om detaljerna i en del av nätet, varje “nod” i den modell som författarna skapat “har tillgång till strukturella egenskaper hos hela grafen” i nätverket.

Intressant nog, genom jettisoning typiska metoder för nätverksanalys, som är känd som en “random walk,” skriver författarna att deras tillvägagångssätt är mer sofistikerad än andra analyser.

“Random-walk mål är känd för att överbetona närheten information på bekostnad av strukturell information.” I den meningen, att random walk har en bias, något AI-forskare vill eliminera.

I kontrast, Djup Graf Infomax gör det så att varje nod i nätverket är “medveten om den globala strukturella egenskaper hos grafen.”

Det finns en större punkt till rapporten: neurala nätverk som kan matcha information om detaljer med information om den större bilden, kan uppnå bättre “representationer.” Representationer innebär att ha en högre nivå av abstraktion om ett ämne. Som sådant arbete bidrar till den pågående strävan att ge AI högre nivåer av förståelse än bara en korrelation på som det har fokuserats.

Tidigare och relaterade täckning

Vad är AI? Allt du behöver veta

En verkställande guide till artificiell intelligens, från maskininlärning och allmänna AI att neurala nätverk.

Vad är djupt lärande? Allt du behöver veta

Lowdown på djupt lärande: från hur det förhåller sig till de bredare fält av maskinen lärande genom hur man kommer igång med det.

Vad är lärande? Allt du behöver veta

Denna guide förklarar vad lärande är, hur den är relaterad till artificiell intelligens, hur det fungerar och varför det är viktigt.

Vad är cloud computing? Allt du behöver veta om

En introduktion till cloud computing rätt från grunderna upp till IaaS och PaaS, hybrid, offentliga och privata moln.

Relaterade Ämnen:

Nätverk

Digital Omvandling

CXO

Sakernas Internet

Innovation

Affärssystem

0