Vrees niet diep fakes: OpenAI de machine schrijft zo zinloos als een chatbot spreekt

0
144

Als je deze woorden leest, wees gerust, ze werden geschreven door een mens. Of ze het bedrag van intelligentie, dat is om u tegen te zeggen.

De leeftijd van schrijven door een machine die kan gaan opbrengen met menselijke lezers, is niet helemaal op ons, tenminste, niet als je het leest op de voet.

Wetenschappers van de niet-voor-winst OpenAI deze week vrijgegeven van een neuraal netwerk model dat niet alleen gobbles ton van de menselijke schrijven — 40 gigabytes aan Web-verzamelen van gegevens — ook ontdekt wat voor soort taak die ze moeten uitvoeren, van het beantwoorden van vragen een opstel te schrijven aan het uitvoeren van de vertaling, zonder dat expliciet gezegd te doen, wat bekend staat als “nul-shot” leren van taken.

Het debuut een zwerm van koppen over nieuwe en gevaarlijke vormen van “diep vervalsingen.” De realiteit is dat deze vervalsingen, hoewel indrukwekkend, moeten gemakkelijk opbrengst naar menselijk inzicht.

Het enkelvoud inzicht van de OpenAI team, en het is een werkelijk fascinerende doorbraak, is dat de waarschijnlijkheid van het voorspellen van het volgende woord in een zin kan worden uitgebreid tot het voorspellen van de punt van een uitspraak, betekenis, het doel van een taak.

Ook: Waarom chatbots nog steeds laat ons koud

openai-gpt-2-graphic-feb-2019.png

Afbeelding uit OpenAI de GPT-2-rapport.

OpenAI

Zo schrijven ze, “Taal biedt een flexibele manier om aan te geven taken, ingangen en uitgangen van alle als een sequentie van symbolen.” Dat leidt tot onbegeleid leren door de machine, waar geen expliciete doel moet worden ingesteld om het te trainen.

Het project, door de onderzoekers Alec Radford, Jeffrey Wu, Rewon Kind, David Luan, Dario Amodei, Ilja Sutskever, was het schot gehoord rond de wereld op Valentijnsdag, en de druk naar de stad ging.

“Deze AI is Te Machtig om aan het Publiek” was de kop door de PC Mag, vrij vertegenwoordiger van de toon in de afgelopen 24 uur.

Het was niet alleen de doorbraak test-resultaten van de new neural net, genaamd “GPT-2,” dat pakte koppen. Nog meer opvallend te veel was het besluit van Radford en collega ‘ s niet openbaar te maken, de details van hun netwerk model, of laat de code, uit angst dat het zou worden gebruikt voor kwaadaardige doeleinden.

Zoals de auteurs uitgelegd in een blog-post donderdag, naast de vele goede toepassingen van de technologie die zijn denkbaar, “We kunnen ons ook voorstellen dat de toepassing van deze modellen voor kwaadaardige doeleinden,” met inbegrip van “het genereren van misleidende nieuws artikelen.”

Brandstof toe aan de dingen, is het feit dat OpenAI wordt ondersteund door, onder andere, de Tesla CEO Elon Musk.

Ook op: Facebook open bronnen toren van Babel, het Klingon niet ondersteund

Als Marrian Zhou met ZDNet ‘ s zuster site, CNet, schreef, “Muskus-back-AI groep: Onze tekst generator is zo goed, het is eng.” Ed Baig van USA Today leiden met, “Te eng? Elon Musk is OpenAI bedrijf niet los tech dat kan leiden tot vals nieuws.”

Het helpt de algemene ontsteltenis dat het werk gedaan was met de deelname van Ilja Sutskever, die zoveel heeft bijgedragen veel om de kunst van de verwerking van natuurlijke taal. Hij was instrumenteel in het creëren van gebruikte benaderingen voor het “insluiten” woorden en strijkers van woorden in de computer verklaringen, met inbegrip van “word2vec” en “seq2sec.”

Hoewel de code niet wordt vrijgegeven, sommige journalisten kregen een demo van de technologie van deze week en de leek over het algemeen onder de indruk. Vox is Kelsey Piper gebruik van de tool om te voltooien van het artikel begon ze over GPT-2. Gegeven een enkele zin over GPT-2, de machine spurtte meerdere alinea ‘ s in stijl met het thema, dus misschien is overtuigend als een artikel op een passerende oogopslag.

De resultaten die besproken worden in de formele papier, “Taal-Modellen worden zonder Toezicht Multitasken met de Leerlingen,” toon het systeem deed het goed in verschillende benchmark tests, het verslaan van de vorige state-of-the-art natuurlijke taal verwerking modellen.

Maar vrees niet, veel van de output van GPT-2 niet langer onder toezicht.

Ook: Nvidia prachtige vervalsingen pak de zwarte doos van AI

De voorbeelden die door OpenAI tonen een duidelijk gebrek aan logische samenhang. Bovendien, sommige al te bekende artefacten van de output van de computer, zoals bijvoorbeeld verveelvoudiging van voorwaarden, worden weergegeven in de vele voorbeelden.

Het algemene gevoel van de teksten is niet anders dan het gevoel van de meest geavanceerde chat-bots, waar men een ervaring van iets minder-dan-intelligent op het werk.

openai-gpt-2-blog-essay-feb-2019.png

Originele fashion blog bericht door Ethan M. Wong van Street x Sprezza, boven, en de twee reacties hieronder, geproduceerd door de originele GPT neural net, aan de linkerkant, en het nieuwe model, de GPT-2, aan de rechterkant.

OpenAI.

De beste voorbeelden OpenAI geproduceerd zijn nep-nieuws verhalen, waarin de vorm van het genre, dat is al vrij onsamenhangend, verzacht het gebrek aan logica. Het is een beetje te vergelijken met wat Stephen Colbert ooit bedacht als “truthiness.”

Twee nep-nieuws stuks, één over de diefstal van nucleair materiaal, en één over Miley Cyrus worden betrapt op winkeldiefstal, overtuigend ape de typische tas van feiten in newswire kopiëren.

Het beste voorbeeld is een fictief nieuws-account over eenhoorns wordt ontdekt in de Andes. De negen leden van het stuk zijn van een dwingende lezen dat ruikt standaard journalistieke fair. Het is een beetje moeilijk te beoordelen, hoewel, omdat het geen basis heeft in een feitelijke logica over het wetenschappelijk proces, of de feiten van de Andes-regio (noch feiten over eenhoorns).

Ook: China ‘ s AI-wetenschappers leren een neuraal net naar de trein zelf

Wanneer GPT-2 begeeft zich op het aanpakken van schrijven vereist een ontwikkeling van de ideeën en van de logica, de scheuren open te breken vrij breed. Een voorbeeld essay over de AMERIKAANSE burgeroorlog, gevraagd, enkel en alleen door een enkele zin, “vandaag de dag Voor huiswerk, beschrijf de redenen voor de AMERIKAANSE burgeroorlog,” vormen tot iets dat zou kunnen worden ingediend in een klas. Maar het is een wirwar van onsamenhangende en inchoate feiten en feitjes en meningen. Sommige middelbare school essays zijn gewoon te veel van het een puinhoop, maar ze zouden worden neergeschoten als wartaal toch.

Voorbeelden opgenomen in het formele onderzoek papier een vergelijkbare zwakke punten. Een kort stuk neemt als input voor de mens geschreven leden van een fashion blog bericht door Ethan M. Wong van Street x Sprezza vanaf 2016. De machine gaat door naar bollux-up van alle verwijzingen in een volslagen puinhoop.

Moet lezen

‘AI is heel, heel stom,’ zegt Google AI leider (CNET)Hoe krijg je al die Google Assistent van de nieuwe stemmen nu (CNET)Unified Google AI afdeling een duidelijk signaal van AI ‘ s toekomst (TechRepublic)Top 5: Dingen om te weten over AI (TechRepublic)

In een ander exemplaar, de machine wordt gevoed aantal mens-geschreven tekst over de bezienswaardigheden in Spanje. De machine overgaat tot het genereren van goede engelse zinnen over de geschiedenis van het Moorse Spanje, maar de informatie is niet intern consistent is. De Reconquista van Spanje wordt eerst beschreven als de vestiging van een Islamitische dynastie in Spanje, en dan vervolgens als het einde van de Islamitische heerschappij. Deze machine historicus, in andere woorden, zwerft over de plaats, zonder discipline.

Geen van die, echter, moeten verminderen wat lijkt een aanzienlijke prestatie voor de OpenAI team. Niet alleen hebben ze getraind een machine voor het produceren van perfect geldige reeksen van woorden gebaseerd op de menselijke voorbeelden, zonder labels op die voorbeelden; zij hebben ook aangetoond dat de computer kunt raden de taak gewoon door het afleiden van de tekst zelf.

De auteurs vatten met de constatering dat ondanks enkele mooie prestaties op de benchmarks, nog veel werk worden gedaan.

“Er zijn ongetwijfeld vele praktische taken waar van de prestaties van de GPT-2 is nog steeds niet beter dan een willekeurige,” schrijven ze. “Zelfs op de algemene taken die we geëvalueerd op, zoals de vraag beantwoorden en vertaling, taal-modellen beginnen te overtreffen triviale basislijnen wanneer ze voldoende capaciteit hebben.”

Vorige en aanverwante dekking:

Wat is AI? Alles wat je moet weten

Een executive gids voor kunstmatige intelligentie, van machine learning en algemene AI-neurale netwerken.

Wat is diep leren? Alles wat je moet weten

De lowdown op diep leren: van hoe het zich verhoudt tot het bredere veld van machine-leren door te zien hoe aan de slag met het.

Wat is machine learning? Alles wat je moet weten

In deze gids wordt uitgelegd wat ‘machine learning’ is, hoe het is in verband met kunstmatige intelligentie, hoe het werkt en waarom het belangrijk is.

Wat is cloud computing? Alles wat u moet weten over

Een introductie van cloud computing recht vanaf de basis tot IaaS en PaaS -, hybride -, public en private cloud.

Verwante artikelen:

Google AI surft op het “gamescape” te veroveren spel theorie
Dit is wat AI eruit ziet (zoals geschetst door AI)
Google DeepMind teams met toonaangevende 3D-game dev platform
DeepMind AI plekken vroege tekenen van de ziekte van het oog

Verwante Onderwerpen:

Big Data Analytics

Digitale Transformatie

CXO

Het Internet van Dingen

Innovatie

Enterprise Software