Om du läser dessa ord, lita på, de var skrivna av en människa. Om de uppgår till intelligens, det är för dig att säga.
År av skrivande av en maskin som kan gå uppbåda med mänskliga läsare är inte riktigt på oss, åtminstone inte om man läser noga.
Forskare vid icke-vinstdrivande OpenAI den här veckan släppt ett neuralt nätverk modell som inte bara slukar massor av mänskliga skriva — 40 gigabyte Web-skrapade data — även upptäcker vilken typ av uppgift det bör utföra, från att svara på frågor för att skriva uppsatser för att utföra översättning, alla utan att vara sa uttryckligen att göra så, vad som är känt som “noll-shot” att lära av uppgifter.
Debuten iväg en svärm av rubriker om nya och farliga former av “djup förfalskningar.” Verkligheten är att dessa förfalskningar, medan imponerande, skulle lätt ge för människors omdöme.
Singular insikt i OpenAI team, och det är en verkligt fascinerande genombrott, är att sannolikheten för att förutsäga nästa ord i en mening kan utvidgas till att förutsäga led av en utsagas innebörd, mål för en uppgift.
Dessutom: Varför chatbots fortfarande lämna oss kalla

Bild från OpenAI är GPT-2 rapport.
OpenAI
Som de skriver, “Språk ger ett flexibelt sätt för att ange uppgifter, ingångar och utgångar alla som en sekvens av symboler.” Som leder till oövervakad inlärning av maskinen, där inga uttryckliga målet måste vara inställd på att träna den.
Projektet, av forskare Alec Radford, Jeffrey Wu, Rewon Barn, David Luan, Dario Amodei, Ilya Sutskever, var skott hörde runt om i världen på alla Hjärtans Dag, och tryck åkte till stan med den.
“Detta AI är För stark för att Släppa till Allmänheten”, var rubriken av PC Mag, ganska representativ för tonen i de senaste 24 timmarna.
Det var inte bara banbrytande resultat av nya neurala nät, som kallas “GPT-2,” som tog rubriker. Ännu mer slående att många beslut av Radford och kollegor inte att offentliggöra detaljerna i sina nätverk modell, eller att släppa koden, av rädsla för att det skulle kunna användas för skadliga syften.
Som författarna förklarar i ett blogginlägg torsdag, förutom många bra användningsområden av tekniken som är tänkbara, “Vi kan också tänka sig tillämpningen av dessa modeller för skadliga syften, bland annat att “skapa vilseledande nyheter artiklar.”
Lägga bränsle till saker är det faktum att OpenAI backas upp av bland andra Teslas VD Elon Musk.
Också: Facebook öppna källor babels torn, Klingonska inte stöds
Som Marrian Zhou med ZDNet syster webbplats, CNet, skrev, “Musk-stödda AI gruppen: Vår text generator är så bra att det är skrämmande.” Ed Baig av USA Today att leda med, “För skrämmande? Elon Musk OpenAI företaget inte kommer att släppa tech som kan generera falska nyheter”.
Det hjälper den allmänna bestörtning att arbetet var gjort med deltagande av Ilya Sutskever, som har bidragit så mycket till att främja konst för behandling av naturligt språk. Han bidrog till att skapa allmänt används strategier för att “bädda in” ord och strängar av ord i datorn representationer, inklusive “word2vec” och “seq2sec.”
Även om koden är inte släpps några journalister fick en demo av teknik denna vecka och verkade allmänt imponerad. Vox är Kelsey Piper använt verktyget för att avsluta den artikel hon började om GPT-2. En enda mening om GPT-2, maskinen streckade av flera stycken för att hålla med tema, därav kanske övertygande som en artikel vid ett flyktigt ögonkast.
Resultatet diskuteras i den formella papper, “Språk Modeller är Ensamma flera Saker för Eleverna,” visa systemet fungerat väl i flera benchmark-tester, slog tidigare state-of-the-art behandling av naturligt språk modeller.
Men frukta inte, mycket av produktionen av GPT-2 inte hålla upp under noggrann granskning.
Också: Nvidia fantastiska förfalskningar packa upp den svarta lådan av AI
De exempel som tillhandahålls av OpenAI visa en tydlig brist på logisk konsekvens. Dessutom, vissa alltför välbekanta föremål av utdata från datorn, såsom dubblering av termer, som förekommer i många exempel.
Den övergripande känslan av texter är inte helt olik känslan av att de mest avancerade chatta bots, där man har en upplevelse av något mindre-än-intelligent på jobbet.
Ursprungliga mode-blogg inlägg av Ethan M. Wong av Street x Sprezza, upp, upp, och de två svaren nedan är det, som produceras av den ursprungliga GPT neurala nät, till vänster, och den nya modellen, GPT-2, till höger.
OpenAI.
De bästa exemplen OpenAI som produceras är falska nyheter, där formen av genren, som redan är ganska osammanhängande, jämnar avsaknaden av logik. Det är lite som att vad som Stephen Colbert en gång myntade som “truthiness.”
Två falska nyheter stycken, en om stöld av kärnämne, och ett om Miley Cyrus fångas snatteri, på ett övertygande sätt ape den typiska väska av fakta som finns i newswire kopiera.
Det bästa exemplet är ett fiktivt nyheter konto om enhörningar upptäckts i Anderna. De nio punkterna i pjäsen är en fängslande läsning som luktar som standard journalistiska rättvis. Det är lite svårt att bedöma, men eftersom det inte har någon grund i faktiska logik om den vetenskapliga processen eller fakta i Anderna (eller fakta om enhörningar).
Också: Kinas AI-forskare undervisar ett neuralt nät för att utbilda sig
När GPT-2 rör sig på att ta itu med att skriva som kräver mer utveckling av idéer och logik, sprickor bryta ganska brett. Ett prov uppsats om AMERIKANSKA inbördeskriget, föranledd enbart av en enda mening: “För dagens hemläxa, beskriv skäl för det AMERIKANSKA inbördeskriget,” former upp som något som mycket väl skulle kunna lämnas i en klass. Men det är ett virrvarr av osammanhängande och inchoate factoids och åsikter. Några high school essäer är bara att mycket av en röra, utan de skulle skjutas ner som rent nonsens ändå.
Exempel som finns i den formella uppsats visa liknande svagheter. En kort bit tar som indata för de mänskliga skrivna punkter i en mode blogg inlägg av Ethan M. Wong av Street x Sprezza från och med 2016. Maskinen fortsätter att bollux upp alla referenser till en grammy.
Måste läsa
‘AI är mycket, mycket dumt”, säger Googles AI ledare (CNET)Hur man får alla Google Assistant nya röster just nu (CNET)Enhetlig Google AI division en tydlig signal om att AI: s framtid (TechRepublic)Topp 5: Saker att veta om AI (TechRepublic)
I en annan instans, maskinen matas vissa mänskliga skrivna texten om sevärdheter i Spanien. Maskinen fortsätter att generera bra engelska meningar om historia Moriska Spanien, men informationen är inte enhetlig. “Reconquista” i Spanien beskrivs först som inrättandet av en Muslimsk dynasti i Spanien, och sedan i slutet av Muslimskt styre. Denna maskin historiker, med andra ord, strövar överallt utan disciplin.
Ingen som dock bör begränsa vad som visas en betydande prestation för OpenAI team. De har inte bara tränat en maskin för att producera helt giltig sekvenser av ord som bygger på mänskliga exempel, utan några etiketter på dessa exempel, de har också visat att datorn kan gissa sig till uppgiften helt enkelt genom att anföra det från själva texten.
Författarna sammanfattar med att säga att trots några fina resultat på riktmärken, mycket arbete återstår att göra.
“Det finns säkert många praktiska arbetsuppgifter där resultatet av GPT-2 är fortfarande inte bättre än slumpmässig,” skriver de. “Även om gemensamma uppgifter som vi tittade på, såsom fråga att besvara och översättning, språk modeller börjar bara för att överträffa triviala baslinjer, när de har tillräcklig kapacitet.”
Tidigare och relaterade täckning:
Vad är AI? Allt du behöver veta
En verkställande guide till artificiell intelligens, från maskininlärning och allmänna AI att neurala nätverk.
Vad är djupt lärande? Allt du behöver veta
Lowdown på djupt lärande: från hur det förhåller sig till de bredare fält av maskinen lärande genom hur man kommer igång med det.
Vad är lärande? Allt du behöver veta
Denna guide förklarar vad lärande är, hur den är relaterad till artificiell intelligens, hur det fungerar och varför det är viktigt.
Vad är cloud computing? Allt du behöver veta om
En introduktion till cloud computing rätt från grunderna upp till IaaS och PaaS, hybrid, offentliga och privata moln.
Relaterade artiklar:
Googles AI surfar “gamescape” att erövra spelteori
Detta är vad AI ser ut (som skissat av AI)
Googles DeepMind lag med ledande 3D-spel dev plattform
DeepMind AI fläckar tidiga tecken på ögonsjukdom
Relaterade Ämnen:
Big Data Analytics
Digital Omvandling
CXO
Sakernas Internet
Innovation
Affärssystem