Google ‘ s DeepMind spørger, hvad det betyder for AI til at mislykkes

0
141

Der er blevet års studier placeret i problemet med hvordan man laver kunstig intelligens “robust” til at angribe og mindre tilbøjelige til at mislykkes. Men området er stadig at komme til livs med, hvad der fejl i AI betyder faktisk, som påpeget af et blog-indlæg i denne uge fra den DeepMind enhed af Google.

Det element, der mangler, kan synes indlysende for nogle: det ville virkelig hjælpe hvis der var mere menneskelig deltagelse i fastlæggelsen af randbetingelser for hvordan neurale netværk skal fungere.

Forskere Pushmeet Kohli, Sven Gowal, Krishnamurthy, Dvijotham, og Jonathan Uesato har været at studere dette problem, og de identificerer sig meget arbejde, der mangler at blive gjort, som de opsummere under titlen “Mod en Robust og Kontrolleret, AI: Specifikation Test, Robust Uddannelse, og Formel Kontrol.”

Der er en rig historie af kontrol test for edb-programmer, men disse metoder er “ikke ikke egnet til moderne dyb læring.”

Også: MIT ups ante i at få en AI til at undervise en anden

Hvorfor? I stor del fordi forskerne er stadig ved at lære om, hvad det betyder for et neuralt netværk til at følge “specifikation”, der var lagt ud for det. Det er ikke altid klart, hvad det specifikation selv er.

“Specifikationer, der fanger ‘korrekt’ adfærd i AI-systemer er ofte vanskeligt at netop staten,” skriver forfatterne.

google-deepmind-geometry-of-verification.png

Google ‘ s DeepMind foreslår måder at sætte en grænse for den slags resultater et neuralt netværk kan producere, for at holde det fra at gøre de forkerte ting.

DeepMind

×

google-deepmind-geometri-af-kontrol.png

Begrebet en “specifikation”, som kommer ud af den software verden, DeepMind forskerne observere. Det er den tilsigtede funktionalitet af et edb-system.

Som forfatterne skrev i et indlæg i December, i AI, kan der ikke være blot en spec, kan der være mindst tre. Der er den “ideelle” specifikation, hvad systemet skabere forestille sig, at det kunne gøre. Så er der “design” – specifikation, den “objektive funktion”, der udtrykkeligt er optimeret til en neurale netværk. Og, endelig, der er “afsløret” specifikation, den måde, at de ting, der faktisk udfører. De kalder disse tre specs, som alle kan variere ganske lidt fra hinanden, de ønsker, design og adfærd.

Design af kunstige neurale netværk kan ses som hvordan til at lukke hullet mellem ønsker, design og adfærd. Som de skrev i December essay, “En specifikation problemet opstår, når der er et misforhold mellem den ideelle specifikation, og den afslørede, specifikation, der er, når AI-system ikke gør, hvad vi gerne vil have det til at gøre. ”

Også: Google funderer den mangler af machine learning

De foreslår forskellige ruter for at teste og træne neurale netværk, der er mere robuste over for fejl, og formentlig mere tro mod specs.

En fremgangsmåde er at bruge AI selv at finde ud af, hvad befuddles AI. Det betyder at bruge en forstærkning learning system, som Google ‘ s AlphaGo, for at finde den værst mulige måder, at en anden reinforcement learning system kan svigte?

Forfatterne gjorde netop dette, i et dokument, der blev offentliggjort i December. “Vi lærer en kontradiktorisk værdi funktion, som forudsiger af erfaring, hvilke situationer der er mest tilbøjelige til at forårsage fejl for agenten.” Agenten i dette tilfælde henviser til en styrkelse læring agent.

“Vi så bruge den lærte funktion for optimering til at fokusere evalueringen på de mest problematiske hjælpestoffer.” De hævder, at den metode, der fører til “store forbedringer i forhold til random test” af forstærkning learning systemer.

Skal læse

“AI er meget, meget dum, “siger Google’ s AI-leder (CNET), Hvordan man får alle Google Assistant ‘s nye stemmer lige nu (CNET)Samlet Google AI division et klart signal om, at AI’ s fremtid (TechRepublic)Top 5: Ting at vide om AI (TechRepublic)

En anden tilgang er at træne et neuralt netværk til at undgå en lang række udgange, for at holde det fra at gå helt af sporet, og gør virkelig dårlige forudsigelser. Forfatterne hævder, at en “simpel afgrænser teknik,” noget, der hedder “interval bundet formering,” er i stand til at træne en “beviseligt robust” neurale netværk. At arbejde skaffede dem en “best paper award” på NeurIPS konferencen sidste år.

De er nu på vej ud over bare afprøvning og træning af et neuralt netværk til at undgå katastrofen, de er også begyndt at finde et teoretisk grundlag for en garanti for robusthed. De nærmede sig det som et “optimering problem, der forsøger at finde den største krænkelse af den ejendom, der kan verificeres.”

På trods af disse resultater, ved slutningen af dagen, “er behov for meget arbejde,” skriver forfatterne “for at opbygge automatiserede værktøjer til at sikre, at AI-systemer i den virkelige verden vil gøre det ‘rigtige’.”

Nogle af dette arbejde er at designe algoritmer, der kan teste og træne neurale netværk mere intenst. Men noget af det formentlig indebærer en menneskelige element. Det handler om at sætte mål — mål — funktion- for AI, der matcher, hvad mennesker vil.

“Opbygning af systemer, der kan bruge delvis menneskelige specifikationer og lære yderligere specifikationer fra evaluerende feedback ville være nødvendige,” skriver de, “som vi bygger mere og mere intelligente agenter i stand til at udstille kompleks adfærd, og handler i ustrukturerede omgivelser.”

Tidligere og relaterede dækning:

Hvad er AI? Alt, hvad du behøver at vide

En executive guide til kunstig intelligens, fra machine learning og generelt AI til neurale netværk.

Hvad er dyb læring? Alt, hvad du behøver at vide

Den lowdown på en dyb læring: fra hvordan det relaterer til det bredere felt af machine learning igennem til, hvordan du kommer i gang med det.

Hvad er machine learning? Alt, hvad du behøver at vide

Denne vejledning forklarer, hvad machine learning er, hvordan det er relateret til kunstig intelligens, hvordan det fungerer, og hvorfor det er vigtigt.

Hvad er cloud computing? Alt, hvad du behøver at vide om

En introduktion til cloud computing-lige fra det grundlæggende op til IaaS og PaaS, hybrid, offentlige og private cloud.

Relaterede historier:

Google ‘ s AI surfer “gamescape” for at erobre game theory
Dette er, hvad AI ligner (som skitseret ved AI)
Google ‘ s DeepMind hold med førende 3D spil dev platform
DeepMind ‘ s AI pletter tidlige tegn på øjensygdom

Relaterede Emner:

Sikkerhed

Digital Transformation

CXO

Tingenes Internet

Innovation

Virksomhedens Software