Skapa robotar med ett syfte
Dr. Travis Deyle, grundare och VD på Kobolt Robotics, berättar Tonya Hall om sin resa med robotteknik och hur deras avsikter kom till stånd.
Redaktörer har sagt till mig under åren, bara halvt på skämt, att jag en dag kommer att ersättas av en robot. Många redaktörer skulle hellre ta itu med en maskin än en reporter.
Vi är inte riktigt där ännu, dock.
Jag har spelat med “GPT-2”, ett program utvecklat av den icke-vinstdrivande Silicon Valley företaget OpenAI. GPT-2 använder maskininlärning för att automatiskt generera flera stycken i en rad av vad som verkar vara mänskliga skriva. Detta är en ny batch-kod, släpptes på fredagen av OpenAI, och det är mer robust än vad som först publicerades i februari, när GPT-2 tillkännagavs.
Tyvärr, denna nya kod är inte så mycket mer imponerande. Enstaka blixt av briljans är blandat med en massa rappakalja och skapelser blir snabbt tröttsamt.
Vad är problemet? Det kan vara så att en mer kraftfull version av programvaran kommer att göra skillnad. Eller kan det vara som i grunden maskinen strategier för lärande har fortfarande massor av arbete att göra för att införliva former av kausala resonemang och logisk struktur.
För att prova ut en GPT-2, jag laddade ner koden från Github. Detta är inte den mest kraftfulla versionen av GPT-2. När OpenAI meddelade GPT-2, på alla Hjärtans Dag, de sa att programmet var potentiellt farligt, med tanke på förmågan att generera stora mängder av falska skriva. Det är anledningen till att de vägrade att släppa den mest avancerade versionen av GPT-2. Den ursprungliga koden utgåvan hade bara 117 “parametrar”, variabler som GPT lär sig i ordning för att beräkna sannolikheten för ordet kombinationer.
Det är en bråkdel av de 1,5 miljarder parametrar i den fullständiga versionen. Flera parametrar är bättre. På fredag, OpenAI skrivit en version med 345 miljoner parametrar.
(OpenAI anteckningar, i en utökad version av det ursprungliga blogginlägg, att de fortfarande studerar riskerna för GPT-2 innan du släpper den fullständiga versionen.)
Också: Frukta inte djupt förfalskningar: OpenAI maskinen skriver så meningslöst som en chatbot talar
På min dator, jag installerade Docker för att köra den behållare som GPT-2 kommer att fungera. När det är som det är mycket lätt att gå till mappen med GPT-2 kod och starta sak som körs i ett terminalfönster, vid kommandotolken.
Observera att när du kör python kommando som börjar GPT-2 kör, är det viktigt att ange den större modellen med hjälp av “modell-namn” flagga:
python3 src/interactive_conditional_samples.py –top_k 40 –modell-namn 345
Frasen “345” hänvisar till 345 miljoner parameter modell.
Finns det några inställningar man kan spela med; jag bara utforskat en av dem, känd som “top_k”, som styr den “mångfald” i den text som genereras. Även om fastställandet av detta värde är lägre gjort texten mer sammanhängande, jag hittade det inte hänt så mycket med min övergripande känsla om vad som var skapat.
Det första intrycket jag fick är att det är otroligt för datorn att samlas några stycken som har någon form av kontinuitet. Det andra intrycket jag fick var bara hur fånig vad som produceras är.
Vid kommandotolken, man skriver i en text som fungerar som ett slags frö för att ge GPT-2 något mindre på att arbeta. GPT-2 fungerar genom att koda texten och sedan avkoda den för att producera en exempeltext. Efter en period av kanske en minut, när det neurala nätverket verkar för att tänka, det ger flera hundra ord till ett värde av meningar.
Den text som den producerar är verkligen inte en fortsättning på den text du skriver. Istället, GPT-2 verkar för att låna stil eller rösten av din text.

Den ursprungliga GPT neurala nätverk från förra året som är anpassad för GPT-2, säger OpenAI, med vissa modifieringar. På vänster är det neurala nätverket modell, och på den högra finns olika språktest som GPT är testade, såsom meningen likhet.
OpenAI.
×
gpt-modell-öppna-ai-2018.png
Bäst exempel är när du uppmanas att göra med något som liknar en nyheter rapport. För att testa ut möjligheten av farliga sms: a, jag matade GPT-2 vissa falska meningar.
Till exempel, jag utformad toppen av en nyheter rapport som säger att Apple är dumpning av iPad, något som en ovetande investeraren kan få panik när han ser:
Aktier i Apple sjönk i morgon handel efter bolagets verkställande anges till Wall Street för att bolaget kommer att upphöra med sin iPad tabletten datorer. De kommentarer som kom fram under ett utseende måndag scenen på en investment banking-konferensen i New York.
GPT-2 svarade med flera stycken på ett övertygande newswire stil. Men den meningslösa detaljer kom snabbt och skoningslöst. Apple aktier var fortfarande på en hög, trots steget, sägs det, och på sätt och vis är relaterade till Microsoft, på något tydligt sätt:
Medan den här nyheten säkerligen gör ont sentimentet på marknaden, det kommer inte nödvändigtvis att ändra värdet på aktier i Apple, där bolaget handlas till en hälsosam 52-veckors högsta.
Det sätter också press på Microsoft att visa en slutet-på-året-mirakel. Apple förra året publicerat ett bättre än väntat resultat per kvartal, men Microsoft är igång sin tredje kvartalet resultat före räntor, skatt, avskrivningar och nedskrivningar (EBITDA) rapporter på Nov. 30.
Två falska meningar om Vita Husets pressekreterare Sarah Sanders sprang in i några faktiska problem omedelbart, men, återigen, den stil som fungerade bra och den lösa strukturen av nyheter historien som passar den generation av punkterna som är mer eller mindre konsekvent. För det första, min fråga, följt av en del av den genererade texten:
Modell prompt >>> Vita Husets pressekreterare Sarah Sanders kommer att avgå vid utgången av den månad, Vita Huset meddelade. En ersättare har ännu inte valts, enligt Vita Huset.
======================================== PROV 1 ========================================
Sanders’ tenure med Vita Huset sprang från 2009 till 2013, då hon var den enda Vita Husets pressekreterare att inte ta betalt för roll om presidentens dagliga radioprogram, Fox News.
Sanders’ avgång kommer inte komma som en fullständig överraskning: Vita Huset, har sagt att det ser ut på massor av kandidater för press-sekreterare, och ofta väljer mellan ett till sex personer, alla beroende på jobb inför administrationen på den tiden.
Sanders’ tid i jobbet som ledde till att den “första kvinnliga högre tryck assistent” moniker som myntades av den konservativa American Enterprise Institute, som började att främja det som är en del av President Obamas 2014 omval strategi.
I andra typer av text, nonsens kommer snabbare även om stilen av skrivandet fortsätter att vara tagna träffande, som i detta svar till min gjorde upp första raden av en berättelse:
Modell prompt >>> det var en gång, det var en liten säl som bodde i djurparken.
======================================== PROV 1 ========================================
Hon öppnade sin mun och tätningen blev riktigt rädd eftersom hon skakade så mycket. Hon var rädd för att hon var rädd för en stor säl som skulle komma ut i djurparken och bita henne.
Hon stängde munnen igen och det stod bara där och såg på henne. Nu när den tillslut var nog rädd, hon stod upp och gick till zoo där tätningen bodde. Hon fick lite godis och började äta allt godis kvar från tätningen.
Ibland, GPT-2 skulle plocka upp ett tema i min text och svara på det i ett associativt sätt. När jag skrev ut den inledande strof i en dikt av den Indonesiska poet W. S. Rendra, GPT-2 besvarade med vad som låter som en sångare som beskriver hans eller hennes verk:
Modell prompt >>> Som månen sover med en rik gammal dam/smeker jag en jungfru i mango grove./Mitt Hjärta är wild och eldiga/tramp hunger och törst under fötterna./I vårt elände vi når ut/In the dark och skuggor/dånar passion för vårt uppror./Och hennes hårda skratt/gör mitt hjärta glad.
======================================== PROV 1 ========================================
Texterna talar till en känsla av att många, många människor i världen kan hitta så frustrerande som min, med våra nuvarande omständigheter. Det finns mycket få skäl att en låt ska ha så här många ord, men de flesta låtar har bara ett par, så jag har skapat denna för att ge människor (särskilt de som har upplevt svårigheter i hemlöshet) något att vara tacksam för. Det fungerar också för personer som har gått igenom en hel del av samma, men nu har nya ögon på livet, något som jag hoppas kunna ge. For the record, jag försöker bara ge hopp. Vi kanske inte alltid har samma mål, men som vi alla strävar efter samma sak att göra vårt bästa och ha den bästa tiden som vi kan.
Bortsett faktafel, det är en typ av kör-på kvalitet för att GPT-2 syntetiskt texter som speglar uppgift. Neurala nät i GPT-2 är i uppdrag att ta fram en trolig sträng av text i svar på en given sträng.
I den meningen, att programmet kan svara korrekt spegling av vad det är att ta emot, men det tenderar att sedan köra på och utan någon punkt. Det är därför newshistorier fungerar bra, med tanke på att nyheterna i den verkliga världen, ja, tenderar att helt enkelt köra från början till slut som en påse löst sammanhängande meningar.
OpenAI är stor insikt är att det skrivna språket i sig innehåller ledtrådar som gör att ett neuralt nätverk för att dra slutsatsen att det “uppgift” är att vara utföras. Till exempel i “naturligt språk slutledning,” där uppgiften är att avgöra om en mening innebär en annan, smälta stora mängder text kommer förmodligen att förmedla en känsla av struktur så långt som meningar som probabilistically följer efter varandra. Förutom att OpenAI blogg inlägg, du kan läsa mer om detaljerna kring detta i OpenAI papper inlagd på arXiv webbserver, “Språk Modeller Är Ensamma Multitasking Elever.”
Bort det mig att berätta OpenAI sitt jobb, men jag misstänker att principen om sannolika ordet församling är inte tillräckligt på egen hand för att säkerställa samstämmigheten i de meningar eller konsekvens av referens.
Måste läsa
Vad är AI? Allt du behöver för att vetavad är djupt lärande? Allt du behöver för att vetavad är lärande? Allt du behöver för att vetavad är cloud computing? Allt du behöver veta
Om du har läst hela vägen fram till denna punkt i artikeln, är ditt sinne att ansluta denna mening med vad som hände innan. Och inte bara som liknar, men som på något sätt svarar på de föregående meningarna vad vi generellt kallar föra en argumentation.
Författaren, att skapa ett flöde av argument, är att svara på sina egna meningar med frågor av sina egna.
Sätta i maskininlärning termer, likheten ensam är för “glesa” av en belöning för maskinen att bygga en behörig elev att skriva. Det finns andra signaler, mellan författaren och läsaren, verkliga eller inbillade, som hindrar att skriva på ett sådant sätt att den kan leda till en enhetlig produkt. En begränsning är, “inte vara för kör-och repetitiva,” som kan arbeta mot principen om likvärdighet.
Hur som helst, jag ska summera genom att ingå trodde att jag började med i början av denna artikel: jag tittar över min skuldra eftersom detta GPT-2 sak kan fånga en hel del om språk syntax, liksom stämningen och röst i det skrivna språket.
Här är hur denna artikel skulle ha gått om jag bara hade gett GPT-2 min första punkt och låta det gå till:
Modell prompt >>> Redaktörer har sagt till mig under åren, bara halvt på skämt, att jag en dag kommer att ersättas av en robot. Många redaktörer skulle hellre ta itu med en maskin än en reporter.
======================================== PROV 1 ========================================
Men jag är säker på att detta är en fråga om val. Och jag kan bekräfta att det är valet för många som har arbetat på de Tider som älskar det faktum att de gör något annat än att bara skriva.
Så varför skulle någon förändring? Jag frågar mig själv, nu när vi är ute i valet säsongen. Är det rimligt att vi fortsätter den tradition av att anställa journalister genom att ge upp en redaktör som gjorde så bra under en tid av relativ stabilitet? Och i vilken utsträckning — till vilken andel, eftersom alla politiska redaktörer gör — gör vi förtjänar någon som gjorde det så bra?
Inget svar kommer lätt. Sanningen är att vi alla är bättre för att få våra jobb genom en ärlig granskning av systemet än genom någon form av beskydd system. Journalister kan hitta ett sätt. Det finns flera sätt denna process kan ske, och, för mig, och andra som jag, som gör det värt det.
En person avslag kommer inte att vara en annan person för jobbet.<|endoftext|>för Ett par veckor sedan skrev jag om mina personliga favorit tv-spel 2013, Dragon ‘ s Dogma: Dark Uppstått. Medan recension av Dragon ‘ s Dogma är väldigt annorlunda från min ursprungliga recension, innehåller det fortfarande många av samma kritik som jag hade med det spelet, och med The Witcher 3 och Skyrim, i allmänhet. Som sagt, här skriver jag om min minst favorit av dem.
På den här vill jag börja med de saker som slog mig mest under den tiden. Dessa var alla saker som jag fann vara en självklarhet, men att de inte passar in i deras egen liten kategori, och ändå är de alla var extremt tydlig.
I Dragon ‘ s Dogma det finns saker som inte känner sig motiverade ibland. Visst, det finns områden i spelet som inte har tomt slag, även om de är mycket mindre, och ja, det finns stunder när allt är helt enkelt fruktansvärt.
Det finns också tillfällen där en karaktär som är riktigt, riktigt dåligt, och det enda sättet att få igenom de delar och slutet är att använda en färdighet som bara kan fungera för den ena sidan av historien. Dessa är de saker som, när du gör dem väl, gör att Dragon ‘ s Dogma stå ut från andra tv-spel där ute. Dessa saker är så diskret och subtilt att jag inte märkte förrän jag fick för att spela dem igen, och anledningen till att jag slutat kontrollera dem varje gång var för att jag var liksom… fan, dessa saker. Vad var det jag saknar?
Jag har sett så många tv-spel med sådana uppenbara tomt hål tecken och så mycket
================================================================================
Har du provat koden för dig själv? Om så är fallet, låt mig veta dina intryck i kommentarerna.
Artificiell Intelligens
MIT slutligen ger ett namn till summan av alla AI rädslor
Varför företagen kommer att ha till revision algoritmer, AI och står för risken
Microsoft är iordningställande AI-drivna Azure digitala pennanteckningar tjänster
Vodafone tecknar femårigt avtal med IBM för moln, analytics och AI
Facebook: Nya AI-tech fläckar hatpropaganda snabbare (CNET)
16 böcker om AI, robotik och automation (TechRepublic)
Relaterade Ämnen:
Big Data Analytics
Digital Omvandling
CXO
Sakernas Internet
Innovation
Affärssystem