Facebook hverver AI til at nappe web-server performance

0
95

Nul

facebook-icon-v3.jpg

Machine learning har været anvendt i de senere år for at tilpasse udførelsen af machine learning sig selv, så hvorfor ikke bruge det til at forbedre performance på en noget ydmyge niveau, gennemførelse af en web server?

Det er det synspunkt, der træffes af forskere på Facebook, der på mandag er skitseret deres arbejde, tweaking indstillingerne af servere, der kører det sociale netværks server-infrastruktur.

Det arbejde, som er udarbejdet af Benjamin Letham, Brian Karrer, Guilherme Ottoni, og Eytan Bakshy, er præsenteret i en artikel i tidsskriftet Bayesiansk Analyse og drøftede i et indlæg på Facebook ‘ s AI forskning blog.

Ligesom alle internet-tjenester, Facebook løber såkaldte A/B-test til at måle, hvor godt servere til at køre, når dette eller hint variabel er ændret. Alle, der har set forskellige versioner af web-sider sammenknebne, såsom at ændre udseende på en knap, eller layout af tekst, vil være bekendt med denne form for tweaking, at optimere ting, såsom click-through priser eller indkøbskurv bruge, siger, om en handel site.

Også: Top 5: Ting at vide om AI TechRepublic

I tilfælde af denne forskning, forskerne ændrede muligheder for just-in-time compiler, der konverterer Python til native x86 server-kode inde i open source web-serveren, som Facebook bruger til at tjene HTTP-anmodninger, “HipHop Virtual Machine.”

For eksempel, JIT kan være indstillet til at gøre ting, såsom in-line en given blok af kode. Sådanne justeringer kan gøre koden størrelse større, og så A/B test er nødvendige for at finde ud af, om hastigheden er op af i-foring kode, der er værd at trade-off af at indtage mere server hukommelse.

Forfatterne har brugt en metode kaldet “Bayesiansk analyse,” en form for machine learning, som lægger vægt på brug af fortiden, eller før, oplysninger til guddommelig en optimal løsning. Bayesian har været anvendt i de sidste ti år på at optimere”hyper-parametre” af machine learning sig selv, såsom hvordan store at gøre batch size, eller hvor hurtig den læring sats. Fordi sådan Bayesian optimering kan fjerne det hårde arbejde med at designe hyper-parametre, den ene gruppe har, for eksempel, de såkaldte Bayesian optimering en måde at “automatisere” machine learning.

Den Facebook forfattere, der anvendes Bayesian til at køre A/B-test med JIT-compiler ‘ s indstillinger i forskellige positioner. Den store fordel er, hastighed. Fordi test er at være gjort i et produktionsmiljø for at observere effekten af de forskellige indstillinger, der er en premium lagt på at få de tests udført hurtigt for at komme videre med ændringer til webserveren.

Også: Facebook pumper op character recognition) for at mine memes

Forfatterne skriver, at i forhold til typiske A/B-test, hvor en enkelt ændring i konfigurationen er testet på et tidspunkt, Bayesian optimering “gav os mulighed for i fællesskab at tune flere parametre med færre eksperimenter og finde bedre værdier.”

Det centrale her er ordet “fællesskab”: Bayesian mekanismer udelukke visse valg af konfigurationer, uden at have til rent faktisk at køre dem, som En a/B-test, ved at ekstrapolere fra en given A/B-test til andre parametre, for at indsnævre antallet af “muligt” konfigurationer. Som forfatterne sætning denne brede søgning magt, “en test af En parameter værdi i et kontinuerligt rum giver os information om, ikke blot resultatet, men også i de nærliggende steder.” Så der er udført eksperimenter, Bayesian model får ny erfaring data, som for yderligere at indsnævre søgningen til potentielt optimale konfigurationer, så hele A/B-test affære kan få mere effektiv, da det går sammen.

Også: Google ‘ s søster selskab kampe myg med AI CNET

Et nyt bidrag til denne forskning med Bayesian optimering er håndtering af støj. Forfatterne bemærk, at i modsætning til opgave at optimere machine learning-netværk, når det er en test-server-indstillinger i A/B eksperimenter, der er en masse støj i både måling af resultaterne af de test – servere i den virkelige verden kan have en bred vifte af performance virkninger som følge af ændringer i indstillinger – og der er også “støjende” begrænsninger, som har behov for at holde hukommelse i en server inden for rimelighedens grænser. De kom op med en metode til at imødegå sådanne støj i deres Bayesian algoritmer, og de konkluderede, at den nye metode er mere parate produceret optimale løsninger, end andre typer af Bayesianske metoder.

En interessant krølle med denne form for tilgang til A/B-test er, at nogle konfigurationer vil aldrig se dagens lys, fordi den Bayesianske optimering analyse forudsiger, hvilke konfigurationer bør udelukkes helt, det vil fjerne disse variabler fra test. Forfatterne mener dette en fordel i form af potentielt reducere tumult af at udsætte brugerne for en masse forskellige eksperimenter.

Tidligere og relaterede dækning:

Hvad er AI? Alt, hvad du behøver at vide

En executive guide til kunstig intelligens, fra machine learning og generelt AI til neurale netværk.

Hvad er dyb læring? Alt, hvad du behøver at vide

Den lowdown på en dyb læring: fra hvordan det relaterer til det bredere felt af machine learning igennem til, hvordan du kommer i gang med det.

Hvad er machine learning? Alt, hvad du behøver at vide

Denne vejledning forklarer, hvad machine learning er, hvordan det er relateret til kunstig intelligens, hvordan det fungerer, og hvorfor det er vigtigt.

Hvad er cloud computing? Alt, hvad du behøver at vide om

En introduktion til cloud computing-lige fra det grundlæggende op til IaaS og PaaS, hybrid, offentlige og private cloud.

Relaterede Emner:

Datacentre

Digital Transformation

CXO

Tingenes Internet

Innovation

Virksomhedens Software

0