Det har varit år av studier placeras i problemet med hur man gör artificiell intelligens “robust” för att attackera och mindre benägna att misslyckas. Men fältet är fortfarande komma till rätta med vad misslyckande i AI faktiskt innebär, som påpekats av ett blogginlägg denna vecka från DeepMind enhet av Google.
Det som saknas kan tyckas självklart för vissa: det skulle verkligen hjälpa om det var mer mänsklig delaktighet i utarbetandet av randvillkor för hur neurala nätverk är tänkt att fungera.
Forskare Pushmeet Kohli, Sven Gowal, Krishnamurthy, Dvijotham, och Jonathan Uesato har varit att studera problemet, och de ser mycket arbete som återstår att göra, som de sammanfatta under rubriken “Mot en Robust och Kontrollerade AI: Specifikation Testning, med en gedigen Utbildning och Formell Verifiering.”
Det finns en rik historia av kontroll provning för datorprogram, men dessa metoder inte “är inte anpassad för den moderna djupt lärande system.”
Också: MIT ups ante på att få en AI att lära en annan
Varför? Till stor del eftersom forskarna är fortfarande lära sig om vad det innebär för ett neuralt nätverk för att följa “specifikation” som lades ut för det. Det är inte alltid klart vad specifikationen är jämn.
“Specifikationer för att fånga “korrekt” beteende i AI-system är ofta svårt att exakt ange,” skriver författarna.

Googles DeepMind föreslår olika sätt för att ställa in en gräns för vilka typer av utgångar ett neuralt nätverk kan producera, för att hålla den från att göra fel sak.
DeepMind
×
google-deepmind-geometry-of-kontroll.png
Begreppet “specifikation” kommer ut av programvaran världen, DeepMind forskare observerar. Det är den avsedda funktionen hos en dator.
Som författare skrev i ett inlägg i December, i AI, det kan inte bara vara en spec, det kan vara minst tre. Det är den “ideala” specifikation, vad systemets skapare tänka mig att det skulle göra. Sedan är det “design” – specifikationen, “objektiva funktion” uttryckligen optimerad för ett neuralt nätverk. Och, slutligen, det är den “avslöjade” specifikation, på det sätt att man faktiskt utför. De kallar dessa tre specifikationer, som alla kan variera ganska mycket från en annan, önskar, design och beteende.
Design av artificiella neurala nätverk kan ses som hur man kan överbrygga gapet mellan de vill, design och beteende. Som de skrev i December uppsats “En specifikation problem uppstår när det finns en obalans mellan den ideala specifikation och visade specifikation, som, när AI-system som inte gör vad vi vill att den ska göra. ”
Också: Google funderar brister av maskininlärning
De föreslår olika vägar för att testa och träna neurala nätverk som är mer robust mot fel, och förmodligen mer trogen specifikationer.
Ett sätt är att använda AI själv räkna ut vad befuddles AI. Det innebär att man använder en förstärkning lärande system, som Googles AlphaGo, för att hitta den värsta möjliga sätt som annan inlärning system kan misslyckas?
Författarna gjorde just det, i en rapport som publicerades i December. “Vi lär oss ett kontradiktoriskt värde funktion som förutspår av erfarenhet vilka situationer som är mest sannolikt att orsaka fel för agenten.” Agenten i det här fallet avser en förstärkning lärande agent.
“Vi använder sedan detta lärde funktion för optimering att inrikta bedömningen på de mest problematiska ingångar.” De hävdar att metoden leder till stora förbättringar jämfört med stickprov” av reinforcement learning system.
Måste läsa
‘AI är mycket, mycket dumt”, säger Googles AI ledare (CNET)Hur man får alla Google Assistant nya röster just nu (CNET)Enhetlig Google AI division en tydlig signal om att AI: s framtid (TechRepublic)Topp 5: Saker att veta om AI (TechRepublic)
En annan metod är att träna ett neuralt nätverk för att undvika att en hel rad av utgångar, för att hålla det från att gå helt off the rails och göra riktigt dåliga prognoser. Författarna hävdar att en “enkel avgränsar teknik,” något som heter “interval bundna förökning,” kan utbildning en “bevisligen robust” neurala nätverk. Att arbeta vann dem en “best paper award vid NeurIPS-konferensen förra året.
De är nu på väg än att bara testa och utbilda en neurala nätverk för att undvika katastrof, de är också på väg att hitta en teoretisk grund för en garanti för stabilitet. De närmade sig den som en “optimering problem som försöker att hitta den största kränkning av den egendom som skall kontrolleras.”
Trots dessa resultat, i slutet av dagen, “mycket arbete återstår,” skriver författarna “att bygga automatiserade verktyg för att se till att AI-system i den verkliga världen kommer att göra ‘rätt’.”
En del av detta arbete är att utforma algoritmer som kan testa och träna neurala nätverk mer intensivt. Men en del av det förmodligen innebär en human element. Det handlar om att sätta mål — målet funktion — för AI som matchar vad människor vill ha.
“Att bygga system som kan använda partiella mänskliga specifikationer och lära sig ytterligare specifikationer från utvärderande feedback skulle vara nödvändiga,” skriver de, “som vi bygger allt mer intelligenta agenter klarar av att ställa ut komplexa beteenden och agerar i ostrukturerade miljöer.”
Tidigare och relaterade täckning:
Vad är AI? Allt du behöver veta
En verkställande guide till artificiell intelligens, från maskininlärning och allmänna AI att neurala nätverk.
Vad är djupt lärande? Allt du behöver veta
Lowdown på djupt lärande: från hur det förhåller sig till de bredare fält av maskinen lärande genom hur man kommer igång med det.
Vad är lärande? Allt du behöver veta
Denna guide förklarar vad lärande är, hur den är relaterad till artificiell intelligens, hur det fungerar och varför det är viktigt.
Vad är cloud computing? Allt du behöver veta om
En introduktion till cloud computing rätt från grunderna upp till IaaS och PaaS, hybrid, offentliga och privata moln.
Relaterade artiklar:
Googles AI surfar “gamescape” att erövra spelteori
Detta är vad AI ser ut (som skissat av AI)
Googles DeepMind lag med ledande 3D-spel dev plattform
DeepMind AI fläckar tidiga tecken på ögonsjukdom
Relaterade Ämnen:
Säkerhet
Digital Omvandling
CXO
Sakernas Internet
Innovation
Affärssystem