Skrevet av Greg Nichols , Bidragsyter
Greg Nichols Bidragsyter
Greg Nichols
Full bio Publisert i Robotics 14. desember 2021 | Emne: Robotikk
En stund nå har de som følger utviklingen av robotikk notert seg en stille revolusjon i sektoren. Mens selvkjørende biler har tatt alle overskriftene, er arbeidet som skjer i skjæringspunktet mellom AI, maskinsyn og maskinlæring i ferd med å bli grunnlaget for neste fase av robotikk.
Ved å kombinere maskinsyn med læringsevner, åpner robotikere et bredt spekter av nye muligheter som visjonsbaserte droner, robothøsting, robotsortering i resirkulering og lagervalg. Vi er endelig ved vendepunktet: Øyeblikket hvor disse applikasjonene blir gode nok til å gi reell verdi i semistrukturerte miljøer der tradisjonelle roboter aldri kunne lykkes.
For å diskutere dette spennende øyeblikket og hvordan det kommer til å endre verden vi lever i, tok jeg kontakt med Pieter Abbeel, professor i elektroteknikk og informatikk ved University of California, Berkeley, hvor han også er direktør for Berkeley Robot. Learning Lab og meddirektør for Berkeley AI Research lab. Han er medgründer og sjefforsker av Covariant og vert for den utmerkede The Robot Brains podcasten.
Med andre ord, han har robotikk bon fides, og det han sier om den nære fremtiden for automatisering er intet mindre enn forbløffende.
GN: Du kaller AI Robotics en stille revolusjon. Hvorfor er det revolusjonerende og hvorfor tror du den siste utviklingen fortsatt er under radaren, i det minste i populær dekning?
De siste seksti årene har vi hatt fysisk svært dyktige roboter. Imidlertid var de bare ikke så smarte. Så disse fysisk svært dyktige robotene endte opp begrenset til fabrikker – for det meste bil- og elektronikkfabrikker – hvor de ble klarert til å utføre nøye forhåndsprogrammerte bevegelser. Disse robotene er veldig pålitelige til å gjøre det samme om og om igjen. De skaper verdi, men det skraper knapt i overflaten av hva roboter kan gjøre med bedre intelligens.
Den stille revolusjonen finner sted innen robotikk med kunstig intelligens (AI). AI-roboter er utstyrt med sofistikerte AI-modeller og visjoner. De kan se, lære og reagere for å ta den riktige avgjørelsen basert på den nåværende situasjonen.
Populær dekning av robottrender mot roboter i hjemme-butler-stil og selvkjørende biler fordi de er veldig relatert til hverdagen vår. I mellomtiden tar AI Robotics fart i områder av vår verden som er mindre synlige, men kritiske for levebrødet vårt – tenk på e-handelssentre og varehus, gårder, sykehus, resirkuleringssentre. Alle områder med stor innvirkning på livene våre, men ikke aktiviteter som den gjennomsnittlige personen ser eller direkte interagerer med på daglig basis.
GN: Halvstrukturerte miljøer er liksom neste grense for roboter, som tradisjonelt har vært begrenset til strukturerte omgivelser som fabrikker. Hvor kommer vi til å se nye og verdifulle robotikk-implementeringer i løpet av det neste året eller så?
De tre store jeg forventer er lagerplukk- og pakkeoperasjoner, resirkuleringssortering og avling/stell. Fra et teknologisk synspunkt er disse naturligvis i det slående spekteret av nyere AI-utvikling. Og også personlig kjenner jeg folk som jobber med AI Robotics i hver av disse bransjene, og de gjør store fremskritt.
GN: Hvorfor er maskinsyn et av de mest spennende utviklingsområdene innen robotikk? Hva kan roboter nå gjøre som de for eksempel ikke kunne gjøre for fem år siden?
Tradisjonell robotautomatisering var avhengig av svært smart konstruksjon for å tillate forhåndsprogrammerte bevegelsesroboter å være nyttige. Jada, det fungerte i bil- og elektronikkfabrikker, men til syvende og sist er det veldig begrensende.
Å gi roboter synets gave endrer totalt det som er mulig. Computer Vision, området for AI som er opptatt av å få datamaskiner og roboter til å se, har gjennomgått en natt-og-dag-transformasjon de siste 5-10 årene — takket være Deep Learning. Deep Learning trener store nevrale nettverk (basert på eksempler) til å gjøre mønstergjenkjenning, i dette tilfellet mønstergjenkjenning som muliggjør forståelse av hva som er hvor i bilder. Og så er Deep Learning, selvfølgelig, å gi evner utover å se. Det lar roboter også lære hvilke handlinger de skal utføre for å fullføre en oppgave, for eksempel plukke og pakke en vare for å oppfylle en nettbestilling.
GN: Mye dekning det siste tiåret har fokusert på effekten av sensorer på autonome systemer (lidar, etc). Hvordan omformulerer AI samtalen i robotikkutvikling?
Før Deep Learning brøt inn på scenen, var det umulig å få en robot til å “se” (dvs. forstå hva som er i et bilde). Følgelig gikk mye energi og kløkt i å forske på alternative sensormekanismer i dagene før Deep Learning. Lidar er faktisk en av de populære (hvordan det fungerer er at du sender en laserstråle ut, måler hvor lang tid det tar å bli reflektert, og deretter multipliserer med lysets hastighet for å bestemme avstanden til nærmeste hindring i den retningen). Lidar er fantastisk når det fungerer, men feilmodusene kan ikke utelukkes (f.eks. kommer strålen alltid tilbake til deg? Blir den absorbert av en svart overflate? Går den rett gjennom en gjennomsiktig overflate? osv.. ).
Men i et kamerabilde kan vi mennesker se hva som er der, så vi vet at informasjonen har blitt fanget opp av kameraet, vi trenger bare en måte for datamaskinen eller roboten å kunne trekke ut den samme informasjonen fra bildet. AI-fremskritt, spesielt Deep Learning, har fullstendig endret hva som er mulig i den forbindelse. Vi er på vei til å bygge AI som kan tolke bilder så pålitelig som mennesker kan, så lenge de nevrale nettverkene har blitt vist nok eksempler. Så det er et stort skifte innen robotikk fra å fokusere på å finne opp dedikerte sensoriske enheter til å fokusere på å bygge AI som kan lære og styrke robotene våre ved å bruke de naturlige sensoriske input som allerede er tilgjengelige for oss, spesielt kameraer.
Faktisk krever enhver robotimplementering en sammenløp av mange flotte komponenter og et team som vet hvordan de skal få dem alle til å fungere sammen. Foruten AI er det selvfølgelig den lenge eksisterende teknologien til pålitelige manipulatorroboter av industriell kvalitet. Og, avgjørende, er det kameraer og datamaskiner som stadig blir bedre og billigere.
GN: Hva kommer til å overraske folk med roboter i løpet av de neste fem årene?
Størrelsen roboter bidrar med til hverdagen vår, oftest uten å se noen av disse robotene. Faktisk vil vi sannsynligvis ikke personlig se robotene fysisk samhandle med tingene vi bruker til hverdags, men det vil snart komme en dag hvor flertallet av gjenstandene i husholdningen vår ble berørt av en robot minst én gang før de nådde oss.
Robotikk
Piratjaktende drone overvåker kriminalitet på åpent hav. De beste robotstøvsugere fra 2021 Fortaulevering går mot en torvkrig De beste robotlekene for barn: LEGO, Raspberry Pi , og mer Maskinvare | CXO | Innovasjon | Kunstig intelligens