2022: En stor revolution inom robotteknik

0
183

Greg Nichols Skrivet av Greg Nichols , Bidragsgivare Greg Nichols Greg Nichols Bidragsgivare

Greg Nichols

Fullständig biografi Publicerad i Robotics den 14 december 2021 | Ämne: Robotik

robot-robot-arm-strong-machine.jpg < p>

Sedan ett tag tillbaka har de som spårar robotutveckling noterat en tyst revolution inom sektorn. Även om självkörande bilar har fått tag i alla rubriker, håller arbetet som sker i skärningspunkten mellan AI, maskinseende och maskininlärning snabbt att bli grunden för nästa fas av robotik.

Genom att kombinera maskinseende med inlärningsförmåga öppnar robotiker ett brett utbud av nya möjligheter som visionbaserade drönare, robotskörd, robotisk sortering i återvinning och lagerplockning. Vi är äntligen vid brytpunkten: ögonblicket då dessa applikationer blir tillräckligt bra för att ge verkligt värde i semistrukturerade miljöer där traditionella robotar aldrig skulle kunna lyckas.

För att diskutera detta spännande ögonblick och hur det i grunden kommer att förändra världen vi lever i, kontaktade jag Pieter Abbeel, professor i elektroteknik och datavetenskap vid University of California, Berkeley, där han också är chef för Berkeley Robot Learning Lab och meddirektör för Berkeley AI Research Lab. Han är medgrundare och chefsforskare för Covariant och värd för den utmärkta The Robot Brains podcast.

Med andra ord, han har robotik bon fides, och det han säger om den närmaste framtiden för automatisering är inget annat än häpnadsväckande.

GN: Du kallar AI Robotics en tyst revolution. Varför är det revolutionerande och varför tror du att den senaste utvecklingen fortfarande är under radarn, åtminstone i populär bevakning?

Under de senaste sextio åren har vi haft fysiskt mycket kapabla robotar. Men de var bara inte så smarta. Så dessa fysiskt mycket kapabla robotar hamnade begränsade till fabriker – mestadels bil- och elektronikfabriker – där de fick förtroende för att utföra noggrant förprogrammerade rörelser. Dessa robotar är mycket pålitliga på att göra samma sak om och om igen. De skapar värde, men det skrapar knappt på ytan av vad robotar skulle kunna göra med bättre intelligens.

Den tysta revolutionen äger rum inom området för artificiell intelligens (AI) Robotics. AI-robotar är utrustade med sofistikerade AI-modeller och vision. De kan se, lära sig och reagera för att fatta rätt beslut baserat på den aktuella situationen.

Populär bevakning av robottrender mot robotar i hem-butlerstil och självkörande bilar eftersom de är mycket relaterade till våra vardagliga liv. Samtidigt tar AI Robotics fart i områden i vår värld som är mindre synliga men kritiska för vår försörjning – tänk e-handelsuppfyllelsecenter och lager, gårdar, sjukhus, återvinningscentraler. Alla områden med stor inverkan på våra liv, men inte aktiviteter som den genomsnittliga personen ser eller direkt interagerar med dagligen.

GN: Halvstrukturerade miljöer är liksom nästa gräns för robotar, som traditionellt har varit begränsade till strukturerade miljöer som fabriker. Var kommer vi att se nya och värdefulla robotinstallationer under nästa år eller så?

De tre stora jag räknar med är plocknings- och packningsoperationer i lager, sortering av återvinning och skörd/skötsel av grödor. Ur en teknisk synvinkel är dessa naturligtvis i det slående intervallet för den senaste AI-utvecklingen. Och personligen känner jag personer som arbetar med AI Robotics i var och en av dessa branscher och de gör stora framsteg.

GN: Varför är maskinseende ett av de mest spännande utvecklingsområdena inom robotik? Vad kan robotar nu göra som de inte kunde göra för säg för fem år sedan?

Traditionell robotautomation förlitade sig på mycket smart teknik för att göra det möjligt för förprogrammerade robotar att vara till hjälp. Visst, det fungerade i bil- och elektronikfabriker, men i slutändan är det väldigt begränsande.

Att ge robotar synens gåva förändrar helt vad som är möjligt. Computer Vision, området för AI som sysslar med att få datorer och robotar att se, har genomgått en natt-och-dag-förvandling under de senaste 5-10 åren — tack vare Deep Learning. Deep Learning tränar stora neurala nätverk (baserat på exempel) för att göra mönsterigenkänning, i det här fallet mönsterigenkänning som möjliggör förståelse av vad som finns i bilder. Och sedan är Deep Learning, naturligtvis, att tillhandahålla möjligheter bortom seende. Det gör det möjligt för robotar att också lära sig vilka åtgärder de ska vidta för att slutföra en uppgift, till exempel att plocka och packa en vara för att fullfölja en onlinebeställning.

GN: Mycket täckning under det senaste decenniet har fokuserat på sensorernas inverkan på autonoma system (lidar, etc). Hur ändrar AI konversationen i robotutveckling?

Innan Deep Learning bröt in på scenen var det omöjligt att få en robot att “se” (dvs. förstå vad som finns i en bild). Följaktligen, under dagarna före Deep Learning, gick mycket energi och smarthet åt att undersöka alternativa sensormekanismer. Lidar är verkligen en av de populära (hur det fungerar är att du skickar ut en laserstråle, mäter hur lång tid det tar att bli reflekterad och multiplicerar sedan med ljusets hastighet för att bestämma avståndet till närmaste hinder i den riktningen). Lidar är underbart när det fungerar, men fellägena kan inte diskonteras (t.ex. kommer strålen alltid tillbaka till dig? Absorberas den av en svart yta? Går den rakt igenom en transparent yta? osv. ).

Men i en kamerabild kan vi människor se vad som finns där, så vi vet att informationen har fångats av kameran, vi behöver bara ett sätt för datorn eller roboten att kunna extrahera samma information från bilden. AI-framsteg, särskilt Deep Learning, har helt förändrat vad som är möjligt i det avseendet. Vi är på väg att bygga AI som kan tolka bilder så tillförlitligt som människor kan, så länge som de neurala nätverken har visats tillräckligt många exempel. Så det sker en stor förändring inom robotik från att fokusera på att uppfinna dedikerade sensoriska enheter till att fokusera på att bygga AI som kan lära sig och ge våra robotar möjlighet att använda de naturliga sensoriska input som redan är tillgängliga för oss, särskilt kameror.

GN: Robotik har alltid varit en teknik för sammanflöden. Utöver AI och maskinseende, vilka tekniker har konvergerat för att göra dessa implementeringar möjliga?

Faktum är att varje robotinstallation kräver ett sammanflöde av många fantastiska komponenter och ett team som vet hur man får dem alla att fungera tillsammans. Förutom AI finns det naturligtvis den sedan länge existerande tekniken för pålitliga manipulatorrobotar av industriell kvalitet. Och, avgörande, det finns kameror och datorer som ständigt blir bättre och billigare.

GN: Vad kommer att överraska människor med robotar under de kommande fem åren?

Omfattningen med vilken robotar bidrar till vår vardag, oftast utan att se någon av dessa robotar. Faktum är att vi sannolikt inte personligen kommer att se robotarna fysiskt interagera med de saker vi använder varje dag, men det kommer snart en dag då majoriteten av föremålen i vårt hushåll berördes av en robot minst en gång innan de når oss.

Robotik

Piratjaktande drönare övervakar brottslighet på öppet hav. De bästa robotdammsugarna från 2021 Trottoarleverans är på väg mot ett gräskrig De bästa robotleksakerna för barn: LEGO, Raspberry Pi , och mer Hårdvara | CXO | Innovation | Artificiell intelligens