Är LiDAR på väg ut? Affärsfallet för att säga adjö

0
164

Greg NicholsSkriven av Greg Nichols, bidragsgivare Greg Nichols Greg Nichols Bidragsgivare

Greg Nichols

Fullständig biografi Publicerad i Robotics den 10 januari 2022 | Ämne: Robotik

Robot Eye

Pixabay

Bland den störtflod av robotförutsägelser du kommer att stöta på i år, finns det en du bör vara särskilt uppmärksam på: Hur robotar “ser” är förändras i grunden, och det kommer att ha en enorm inverkan på användbarheten, kostnaderna och spridningen av robotsystem.

Naturligtvis är det lite felkaraktär att prata om att robotar “ser”, eller åtminstone en reduktiv stenografi för ett komplext samspel av mjukvara och hårdvara som gör att robotar kan göra mycket mer sofistikerad avkänning med mycket billigare utrustning. Machine vision innehåller en mängd olika teknologier och förlitar sig i allt högre grad på mjukvara i form av maskininlärning och AI för att tolka och bearbeta data från 2D-sensorer som skulle ha varit ouppnåeliga redan för en kort tid sedan.

Läs även: 2022: En stor revolution inom robotik

Med detta ökande beroende av mjukvara kommer ett intressant skifte bort från högspecialiserade sensorer som LiDAR, som länge varit en bas för robotar som arbetar i semistrukturerade och ostrukturerade miljöer. Robotexperter som gifter sig med relationen mellan människor och AI-programvara kommer att finna att LiDAR faktiskt inte är nödvändigt. Snarare ger maskinseende kartläggning av högre kvalitet till en mer överkomlig kostnad, särskilt när det gäller inomhusrobotik och automation.

För att lära mig mer om den pågående transformationen kontaktade jag Rand Voorhies, CTO & medgrundare på inVia Robotics, om maskinseende, framtiden för automation och om LiDAR fortfarande kommer att vara en grundläggande sensor för robotar under de kommande åren.

GN: Var har framstegen kommer i maskinseende, sensorerna eller programvaran?

Rand Voorhies:Även om 2D-avbildningssensorer verkligen har sett ständiga kontinuerliga förbättringar, har deras upplösning/brus/kvalitet sällan varit en begränsande faktor för den utbredda användningen av maskinseende. Även om det har skett flera intressanta sensorförbättringar under det senaste decenniet (såsom polarisationssensorer och plenoptiska/ljusfältskameror) har ingen verkligen fått draghjälp, eftersom maskinseendesensorers främsta styrkor är deras kostnad och överallt. Det mest banbrytande framstegen har verkligen skett längs mjukvarufronten genom tillkomsten av djupinlärning. Moderna maskinseendemodeller för djupinlärning verkar som magi jämfört med tekniken från tio år sedan. Vilken tonåring som helst med en GPU kan nu ladda ner och köra objektigenkänningsbibliotek som skulle ha blåst de bästa forskningslabben ur vattnet för tio år sedan. Faktum är att 2D-avbildningssensorer fångar upp betydligt mer data än en typisk LiDAR-sensor – du måste bara veta hur man använder den.

Medan banbrytande maskinseende har förbättrats med stormsteg, har andra faktorer också bidragit till antagandet av ännu enklare maskinseendetekniker. Den ständiga utvecklingen av batteri- och motorteknologi har drivit komponentkostnaderna ner till den punkt där robotsystem kan produceras som ger en mycket stark ROI till slutanvändaren. Givet en bra ROI kommer kunder (i vårt fall lageroperatörer) gärna att kommentera sin miljö med “förtroende” klistermärken. Dessa klistermärken är nästan som en fuskkod för robotik, eftersom mycket billiga maskinseende-lösningar kan upptäcka positionen och orienteringen av ett självständigt klistermärke med ultraprecision. Genom att sätta fast dessa referenser över hela ett lager kan robotar enkelt bygga en karta som gör att de kan lokalisera sig själva.

GN: Kan du ge lite sammanhang om LiDAR-antagande? Varför har det blivit ett så standardiserat avkänningsverktyg i autonoma mobilitetsapplikationer? Vilka var de tidiga hindren för maskinseende som ledde utvecklare till LiDAR?

Rand Voorhies: Machine vision har använts för att styra robotar sedan innan LiDAR fanns. LiDAR började vinna betydande popularitet i början av 2000-talet på grund av en del banbrytande akademisk forskning från Sebastian Thrun, Daphne Koller, Michael Montemerlo, Ben Wegbreit och andra som gjorde bearbetning av data från dessa sensorer möjlig. Den forskningen och erfarenheten ledde till dominansen av det LiDAR-baserade autonoma fordonet Stanley i DARPA Grand Challenge (ledd av Thrun), såväl som till grundandet av Velodyne (av David Hall, en annan Grand Challenge-deltagare) som producerar vad många nu anses vara den de facto autonoma bilsensorn. Utmaningen visade att LiDAR äntligen var en gångbar teknik för snabbrörliga robotar för att navigera genom okända, röriga miljöer i höga hastigheter. Sedan dess har det skett en enorm ökning av det akademiska intresset för att förbättra algoritmer för bearbetning av LiDAR-sensordata, och det har publicerats hundratals artiklar och doktorer i ämnet. Som ett resultat har akademiker strömmat in i det kommersiella rummet med massor av akademisk LiDAR-erfarenhet under bältet redo att omsätta teori i praktiken. I många fall har LiDAR visat sig vara det rätta verktyget för jobbet. Ett tätt 3D-punktmoln har länge varit drömmen för robotister och kan göra det avsevärt lättare att undvika hinder och hitta vägar, särskilt i okända dynamiska miljöer. Men i vissa sammanhang är LiDAR helt enkelt inte det rätta verktyget för jobbet och kan lägga onödig komplexitet och kostnader till en annars enkel lösning. Att avgöra när LiDAR är rätt och när det inte är det är nyckeln till att bygga robotlösningar som inte bara fungerar – de ger också positiv ROI till kunden.

Samtidigt har maskinseendet också utvecklats . Ett av de tidiga hindren i maskinseende kan förstås med en enkel fråga: “Ser jag på ett stort föremål som är långt borta, eller ett litet föremål som är på nära håll”? Med traditionell 2D-vision fanns det helt enkelt inget sätt att särskilja. Till och med våra hjärnor kan bli lurade sett i funhouse-perspektivillusioner. Moderna metoder för maskinseende använder ett brett utbud av metoder för att övervinna detta, inklusive:

Uppskattning av avståndet för ett objekt genom att förstå scenens större sammanhang, t.ex.: Jag vet att min kamera är 2 m från marken och jag förstår att bilens däck är 1000 pixlar längs gatan så det måste vara 25 m bort. Bygga upp en 3D-förståelse av scenen genom att använda två eller flera överlappande kameror (dvs stereoseende). Att bygga en 3D-förståelse av scenen genom att “känna” hur kameran har rört sig, t.ex. med en IMU (tröghetsmätningsenhet – ungefär som en robots inneröra) ) och korrelerar dessa rörelser med de föränderliga bilderna från kameran.

Vår egen hjärna använder alla dessa tre tekniker tillsammans för att ge oss en rik förståelse för världen omkring oss som går längre än att bara bygga en 3D-modell.

GN: Varför finns det ett bättre tekniskt fall för maskinseende över LiDAR för många robotapplikationer?

Rand Voorhies: LiDAR lämpar sig väl för utomhusapplikationer där det finns många okända och inkonsekvenser i terrängen. Det är därför det är den bästa tekniken för självkörande bilar. I inomhusmiljöer är maskinseende det bättre tekniska fallet. Eftersom ljusfotoner studsar av objekt i ett lager, kan robotar lätt bli förvirrade under ledning av LiDAR. De har svårt att skilja till exempel en låda med inventarier från en inventarieställning – båda är bara föremål för dem. När robotarna befinner sig djupt i gångarna i stora lager går de ofta vilse eftersom de inte kan särskilja sina landmärken. Sedan måste de mappas om.

Genom att använda maskinseende i kombination med referensmarkörer vet våra inVia Picker-robotar exakt var de befinner sig när som helst. De kan “se” och särskilja sina landmärken. Nästan alla LiDAR-baserade lager-/industrirobotar kräver några referensmarkörer för att fungera. Maskinseende baserade robotar kräver fler markörer. Det senare kräver extra tid och kostnader för att distribuera långa rullar med klistermärken jämfört med färre individuella klistermärken, men när man räknar in tid och kostnad för att utföra vanlig LiDAR-mappning, svänger balansen långt till förmån för ren vision. I slutändan är 2D-maskinseende i lagermiljöer billigare, enklare och mer pålitlig än LiDAR.

Om din användning av robotar inte kräver särskilt hög precision och tillförlitlighet kan LiDAR vara tillräckligt. Men för system som inte har råd med någon förlust i noggrannhet eller drifttid kan machine vision-system verkligen visa sina styrkor. Fiducial-baserade maskinseendesystem tillåter förare att placera markörer exakt där precision krävs. Med inVias system som plockar och placerar väskor utanför hyllorna, placerar dessa markörer på väskorna och hyllan ger millimetersnivånoggrannhet för att säkerställa att varje väska placeras exakt där den ska vara utan att misslyckas. Att försöka uppnå detta med ett rent LiDAR-system skulle vara oöverskådligt för kommersiellt bruk.

GN: Varför finns det ett bättre affärscase?

Rand Voorhies: På affärssidan är fallet också enkelt. Maskinseende sparar pengar och tid. Även om LiDAR-tekniken har minskat i kostnad under åren, är den fortfarande dyr. Vi är fast beslutna att hitta de mest kostnadseffektiva teknikerna och komponenterna för våra robotar för att göra automatisering tillgänglig för företag av alla storlekar. På inVia drivs vi av ett sätt att göra komplex teknik enkel.

Skillnaden i tid det tar att utföra beställningar med maskinseende jämfört med LiDAR och alla dess krav på omkartläggning är avgörande. Det kan betyda skillnaden i att få en beställning till en kund i tid eller en dag för sent. Varje robot som går vilse på grund av LiDAR-ommappning minskar systemets ROI.

Hårdvaran i sig är också billigare när man använder maskinseende. Kameror är billigare än LiDAR, och de flesta LiDAR-system behöver ändå kameror med hjälpmedel. Med maskinseende tillkommer en extra engångsarbetskostnad för att ansöka förtroende. Att applicera fiducials en gång på väskor/ställ är dock extremt billigt arbetsmässigt och resulterar i ett mer robust system med mindre stillestånd och fel.

GN: Hur kommer maskinseendet att förändra landskapet när det gäller användning av robotar inom sektorer som logistik och uppfyllelse?

Rand Voorhies: < /strong>Machine vision har redan fått genomslag i logistik- och uppfyllnadscentra genom att automatisera rote-uppgifter för att öka arbetsproduktiviteten. Lager som använder robotar för att utföra beställningar kan komplettera en knapp arbetsstyrka och låta sina anställda hantera de högre ordningens uppgifter som involverar beslutsfattande och problemlösning. Machine vision gör det möjligt för flottor av mobila robotar att navigera i lagret och utföra viktiga uppgifter som plockning, påfyllning, lagerflyttningar och lagerhantering. De gör detta utan störningar och med maskinprecisionsnoggrannhet.

Att använda robotsystem som drivs av maskinseende tar också bort hinder för adoption på grund av deras överkomliga priser. Små och medelstora företag som brukade prissättas från marknaden för traditionell automation, kan skörda samma fördelar av att automatisera repetitiva uppgifter och därmed växa sina verksamheter.

GN: Hur ska lagerlokaler gå till väga för att kartlägga landskapet för robotteknik när de vill ta till sig nya system?

Rand Voorhies: Det finns många robotlösningar på marknaden nu, och var och en av dem använder mycket avancerad teknik för att lösa ett specifikt problem som lageroperatörer står inför. Så det viktigaste steget är att identifiera din största utmaning och hitta den lösning som löser den.

Till exempel har vi på inVia skapat en lösning som specifikt tar itu med ett problem som är unikt för e-handelsuppfyllelse. Att uppfylla e-handelsorder kräver slumpmässig tillgång till ett stort antal olika SKU:er i individuella räkningar. Det skiljer sig mycket från detaljhandel där du hämtar bulkkvantiteter av SKU:er och skickar ut dem i lådor och/eller pallar. De två operationerna kräver mycket olika lagrings- och hämtningsinställningar och planer. Vi har skapat egna algoritmer som specifikt skapar snabbare vägar och processer för att hämta slumpmässigt åtkomliga SKU:er.

E-handel är också mycket mer arbetsberoende och tidskrävande och därför kostsam. Så dessa lager vill ta till sig robotteknik som kan hjälpa dem att minska kostnaderna för sitt arbete, såväl som den tid det tar att få beställningar ut till kunderna. De har SLA (service level agreements) som dikterar när beställningar måste plockas, packas och skickas. De måste fråga leverantörer hur deras teknik kan hjälpa dem att eliminera blockeringar för att uppfylla dessa SLA.

Robotics

Denna Labrador “Retriever”-robot hjälper dem med kronisk smärta. De bästa robotdammsugarna tillgänglig nu Kan det här vara pizzatillverkningsrobotens år? Hur man slutar oroa sig och välkomnar robotarna 2022 Hårdvara | CXO | Innovation | Artificiell intelligens