Hvis du læser disse ord, forvisset om, at de var skrevet af et menneske. Om de beløb, intelligens, det er for dig at sige.
Alder skrivning af en maskine, der kan passere med menneskelige læsere er ikke helt på os, i hvert fald ikke, hvis man læser nøje.
Forskere ved det ikke-for-profit OpenAI i denne uge udgivet en neurale netværk model, der ikke kun sluger tonsvis af menneskelige skriftligt — 40 gb til en værdi af Web-skrabet data — det er også opdager, hvad slags opgave det bør udføre, ud fra besvarelsen af spørgsmål til at skrive essays til at udfører oversættelse, alle uden udtrykkeligt besked på at gøre, hvad der er kendt som “nul-shot” læring af opgaver.
Debut har sat gang i en sværm af overskrifter om nye og farlige former for “dybt forfalskninger.” Virkeligheden er, at disse forfalskninger, mens imponerende, bør let udbytte til den menneskelige dømmekraft.
Den enestående indsigt i de OpenAI team, og det er en virkelig fascinerende gennembrud, er, at sandsynligheden for at forudsige det næste ord i en sætning kan udvides til at forudsige det punkt i en ytring, hvilket betyder, at målet om en opgave.
Også: Hvorfor chatbots stadig lader os kolde

Grafisk fra OpenAI s GPT-2 beretning.
OpenAI
Som de skriver, “Sprog giver en fleksibel måde at angive de opgaver, input og output, alle som en sekvens af symboler.” Det fører til uovervåget indlæring af maskinen, hvor der ikke eksplicitte mål skal være indstillet på at træne det.
Projektet, ved at forskere, Alec Radford, Jeffrey Wu, Rewon Barn, David Luan, Dario Amodei, Ilya Sutskever, blev de skudt, hørt rundt om i verden på Valentine ‘ s Dag, og pressen gik i byen med den.
“Dette AI er For Kraftig til at Frigive til det Offentlige” var overskriften af PC Mag, nogenlunde repræsentative for den tone, der er i de seneste 24 timer.
Det var ikke kun gennembrud testresultater af den nye neurale net, døbt “GPT-2,” der tog overskrifter. Endnu mere slående, at mange var den beslutning, som Radford og kolleger om ikke at oplyse detaljer om deres netværk model, eller frigive koden, af frygt for at det kunne blive brugt til ondsindede formål.
Som forfatterne forklarede i et blogindlæg torsdag, i tillæg til mange gode anvendelser af teknologi, der er tænkelige, “Vi kan også forestille sig, at anvendelsen af disse modeller til skadelige formål,” herunder “genererer vildledende nyheder.”
At tilføje brændstof til en ting, er det faktum, at OpenAI er bakket op af blandt andre Tesla CEO Elon Musk.
Også: Facebook åbne kilder tower of Babel, Klingon ikke understøttet
Som Marrian Zhou med ZDNet ‘ s søster-site, CNet, skrev, “Moskus-backed AI-gruppen: Vores text generator er så godt, det er skræmmende.” Ed Baig af USA i Dag føre med, “For skræmmende? Elon Musk er OpenAI selskab vil ikke frigive tech, der kan generere falske nyheder.”
Det hjælper den almindelige forfærdelse, at arbejdet blev udført med deltagelse af Ilya Sutskever, der har bidraget så meget til at fremme kunst af naturligt sprog forarbejdning. Han var medvirkende i skabelsen af udbredte metoder for “indlejring” ord og strenge af ord i computer repræsentationer, herunder “word2vec” og “seq2sec.”
Selv om koden ikke bliver frigivet, er nogle journalister, der var givet en demo af teknologien i denne uge, og syntes generelt imponeret. Vox ‘ s Kelsey Piper brugte værktøjet til at afslutte den artikel, som hun startede for ca GPT-2. En enkelt sætning om, GPT-2, maskinen stiplede fra flere afsnit i tråd med temaet, derfor, måske er overbevisende som en artikel på en forbipasserende blik.
Resultaterne diskuteres i det formelle papir, “Sprog Modeller er uden opsyn Multitaske Elever,” vis-systemet klaret sig godt i flere benchmark tests, slå tidligere state-of-the-art naturligt sprog forarbejdning modeller.
Men frygt ikke, for meget af produktionen af GPT-2 ikke holde op under omhyggelig kontrol.
Også: Nvidia ‘ s fremragende forfalskninger pak black box af AI
De eksempler, der er ved at OpenAI viser en udpræget mangel på logisk sammenhæng. Hertil kommer, at nogle alt for bekendt artefakter af computerens output, såsom kopiering af vilkår, der vises i mange eksempler.
Den overordnede fornemmelse af tekster er ikke ulig den følelse af den mest avancerede chat-robotter, hvor man har en oplevelse af noget mindre-end-intelligent på arbejde.
Oprindelige fashion blog-indlæg af Ethan M. Wong Street x Sprezza, op øverst, og de to svar under det, produceret af den oprindelige GPT neurale net, til venstre, og den nye model, GPT-2, til højre.
OpenAI.
De bedste eksempler OpenAI produceret er falske nyhedshistorier, hvor form af den genre, som i forvejen er temmelig usammenhængende, udjævner den manglende logik. Det er lidt ligesom, hvad Stephen Colbert, når opfundet som “truthiness.”
To falske nyheder stykker, én om tyveri af nukleart materiale, og en om Miley Cyrus bliver taget for butikstyveri, overbevisende ape den typiske taske af fakta, der er indeholdt i newswire kopi.
Det bedste eksempel, der tilbydes, er en fiktiv nyhed konto om enhjørninger at blive opdaget i Andesbjergene. De ni punkter i det stykke er en overbevisende læse, der lugter som standard journalistisk redelig. Det er lidt svært at bedømme, men fordi det ikke har noget grundlag i nogen egentlig logik om, videnskabelig proces eller fakta af Andes-regionen (eller fakta om enhjørninger).
Også: Kina ‘ s AI-forskere underviser i et neuralt net til at uddanne sig
Når GPT-2 bevæger sig på til at tackle skriver, der kræver mere udvikling af ideer og logik, revner bryde åbne temmelig bred. En prøve essay om den AMERIKANSKE borgerkrig, bliver du bedt om blot ved en enkelt sætning, “For dagens hjemmearbejde, bedes du beskrive årsagerne til den AMERIKANSKE borgerkrig,” figurer op som noget, der kunne godt være sendt i en klasse. Men det er et virvar af usammenhængende og forsøg fakta og meninger. Nogle high school essays er bare, at meget af en rod, men de ville blive skudt ned, som volapyk alligevel.
Eksempler, der er indeholdt i den formelle forsknings-papir vis lignende svagheder. Et kort stykke tager som input menneske-skrevet afsnit af en fashion blog-indlæg af Ethan M. Wong Street x Sprezza fra 2016. Maskinen fortsætter med at bollux-alle referencer til et fuldkomment rod.
Skal læse
“AI er meget, meget dum, “siger Google’ s AI-leder (CNET), Hvordan man får alle Google Assistant ‘s nye stemmer lige nu (CNET)Samlet Google AI division et klart signal om, at AI’ s fremtid (TechRepublic)Top 5: Ting at vide om AI (TechRepublic)
I et andet eksempel, maskinen er fodret nogle menneskelige skrevet tekst om turistattraktioner i Spanien. Maskinen fortsætter med at generere fine engelske sætninger om historie Mauriske Spanien, men de oplysninger er ikke homogen. “Reconquista” Spanien er beskrevet først som etableringen af en Muslimsk dynasti i Spanien, og derefter som i slutningen af Muslimsk styre. Denne maskine historiker, med andre ord, strejfer overalt uden disciplin.
Ingen af dem, men bør mindskes, hvad der vises en betydelig bedrift for OpenAI team. Ikke alene har de trænet en maskine til at producere helt gyldige sekvenser af ord, der er baseret på menneskelige eksempler, uden nogen etiketter på disse eksempler; de har også vist, at computeren kan gætte den opgave, blot ved at udlede det fra teksten selv.
Forfatterne sum op med den bemærkning, at på trods af nogle fine resultater på benchmarks, meget arbejde tilbage at gøre.
“Der er uden tvivl mange praktiske opgaver, hvor udførelsen af GPT-2 er stadig ikke bedre end tilfældig,” skriver de. “Selv om de fælles opgaver, som vi evalueret på, såsom spørgsmål at besvare og oversættelse, sprog modeller begynde at udkonkurrere trivielle basislinjer, når de har tilstrækkelig kapacitet.”
Tidligere og relaterede dækning:
Hvad er AI? Alt, hvad du behøver at vide
En executive guide til kunstig intelligens, fra machine learning og generelt AI til neurale netværk.
Hvad er dyb læring? Alt, hvad du behøver at vide
Den lowdown på en dyb læring: fra hvordan det relaterer til det bredere felt af machine learning igennem til, hvordan du kommer i gang med det.
Hvad er machine learning? Alt, hvad du behøver at vide
Denne vejledning forklarer, hvad machine learning er, hvordan det er relateret til kunstig intelligens, hvordan det fungerer, og hvorfor det er vigtigt.
Hvad er cloud computing? Alt, hvad du behøver at vide om
En introduktion til cloud computing-lige fra det grundlæggende op til IaaS og PaaS, hybrid, offentlige og private cloud.
Relaterede historier:
Google ‘ s AI surfer “gamescape” for at erobre game theory
Dette er, hvad AI ligner (som skitseret ved AI)
Google ‘ s DeepMind hold med førende 3D spil dev platform
DeepMind ‘ s AI pletter tidlige tegn på øjensygdom
Relaterede Emner:
Big Data Analytics
Digital Transformation
CXO
Tingenes Internet
Innovation
Virksomhedens Software