Skrevet af Greg Nichols , Bidragyder
Greg Nichols Bidragyder
Greg Nichols
Fuld biografi Udgivet i Robotics den 14. december 2021 | Emne: Robotics
I et stykke tid har de, der sporer udvikling af robotter, noteret sig en stille revolution i sektoren. Mens selvkørende biler har grebet alle overskrifterne, er arbejdet, der foregår i krydsfeltet mellem AI, maskinsyn og maskinlæring, hurtigt ved at blive grundlaget for den næste fase af robotteknologi.
Ved at kombinere maskinsyn med læringsevner åbner robotister en bred vifte af nye muligheder som visionsbaserede droner, robothøst, robotsortering i genbrug og lagervalg. Vi er endelig ved omdrejningspunktet: Det øjeblik, hvor disse applikationer bliver gode nok til at give reel værdi i semistrukturerede miljøer, hvor traditionelle robotter aldrig kunne lykkes.
For at diskutere dette spændende øjeblik, og hvordan det fundamentalt vil ændre den verden, vi lever i, kontaktede jeg Pieter Abbeel, professor i elektroteknik og datalogi ved University of California, Berkeley, hvor han også er direktør for Berkeley Robot. Learning Lab og meddirektør for Berkeley AI Research lab. Han er medstifter og Chief Scientist af Covariant og vært for den fremragende The Robot Brains podcast.
Han har med andre ord robotteknologi, og det han siger om den nærmeste fremtid for automatisering er intet mindre end forbløffende.
GN: Du kalder AI Robotics for en stille revolution. Hvorfor er det revolutionerende, og hvorfor tror du, at den seneste udvikling stadig er under radaren, i det mindste i populær dækning?
I de sidste tres år har vi haft fysisk meget dygtige robotter. Men de var bare ikke så smarte. Så disse fysisk yderst dygtige robotter endte med at blive begrænset til fabrikker – for det meste bil- og elektronikfabrikker – hvor de blev betroet til at udføre omhyggeligt forprogrammerede bevægelser. Disse robotter er meget pålidelige til at gøre det samme igen og igen. De skaber værdi, men det ridser knap i overfladen af, hvad robotter kunne gøre med bedre intelligens.
Den stille revolution finder sted inden for robotter med kunstig intelligens (AI). AI-robotter er bemyndiget med sofistikerede AI-modeller og vision. De kan se, lære og reagere for at træffe den rigtige beslutning baseret på den aktuelle situation.
Populær dækning af robottendenser i retning af robotter i hjemme-butler-stil og selvkørende biler, fordi de er meget relateret til vores hverdag. I mellemtiden tager AI Robotics fart i områder af vores verden, der er mindre synlige, men kritiske for vores levebrød – tænk på e-handels-opfyldelsescentre og -lagre, gårde, hospitaler, genbrugscentre. Alle områder med stor indflydelse på vores liv, men ikke aktiviteter, som den gennemsnitlige person ser eller direkte interagerer med på daglig basis.
GN: Semistrukturerede miljøer er en slags næste grænse for robotter, som traditionelt har været begrænset til strukturerede omgivelser som fabrikker. Hvor vil vi se nye og værdifulde udrulninger af robotter i det næste år eller deromkring?
De tre store, jeg forventer, er lagerudtagning og pakning, genbrugssortering og afgrødehøst/-pleje. Fra et teknologisk synspunkt er disse naturligvis i det slående udvalg af den seneste AI-udvikling. Og også personligt kender jeg folk, der arbejder med AI Robotics i hver af disse industrier, og de gør store fremskridt.
GN: Hvorfor er maskinsyn et af de mest spændende udviklingsområder inden for robotteknologi? Hvad kan robotter nu gøre, som de ikke kunne gøre for f.eks. fem år siden?
Traditionel robotautomatisering var afhængig af meget smart teknik for at tillade forprogrammerede bevægelsesrobotter at være nyttige. Selvfølgelig fungerede det på bil- og elektronikfabrikker, men i sidste ende er det meget begrænsende.
At give robotter synets gave ændrer fuldstændigt, hvad der er muligt. Computer Vision, området for kunstig intelligens, der beskæftiger sig med at få computere og robotter til at se, har gennemgået en nat-og-dag-transformation i løbet af de sidste 5-10 år — takket være Deep Learning. Deep Learning træner store neurale netværk (baseret på eksempler) til at udføre mønstergenkendelse, i dette tilfælde mønstergenkendelse, der muliggør forståelse af, hvad der er hvor i billeder. Og så er Deep Learning selvfølgelig at give muligheder ud over at se. Det giver robotter mulighed for også at lære, hvilke handlinger de skal tage for at fuldføre en opgave, for eksempel at vælge og pakke en vare for at opfylde en onlineordre.
GN: Meget dækning i løbet af det sidste årti har fokuseret på sensorernes indvirkning på autonome systemer (lidar osv.). Hvordan omformer AI samtalen i robotudvikling?
Før Deep Learning brød ind på scenen, var det umuligt at få en robot til at “se” (dvs. forstå, hvad der er på et billede). Derfor gik der i dagene før Deep Learning en masse energi og klogskab i at forske i alternative sensormekanismer. Lidar er faktisk en af de populære (hvordan det virker er, at du sender en laserstråle ud, måler, hvor lang tid det tager at blive reflekteret, og multiplicerer derefter med lysets hastighed for at bestemme afstanden til den nærmeste forhindring i den retning). Lidar er vidunderlig, når den virker, men fejltilstandene kan ikke udelukkes (f.eks. kommer strålen altid tilbage til dig? Bliver den absorberet af en sort overflade? Går den lige gennem en gennemsigtig overflade? osv.. ).
Men i et kamerabillede kan vi mennesker se, hvad der er der, så vi ved, at informationen er blevet fanget af kameraet, vi mangler bare en måde, hvorpå computeren eller robotten kan udtrække den samme information fra billedet. AI-fremskridt, specifikt Deep Learning, har fuldstændig ændret, hvad der er muligt i den henseende. Vi er på vej til at bygge AI, der kan fortolke billeder så pålideligt, som mennesker kan, så længe de neurale netværk er blevet vist nok eksempler. Så der er et stort skift inden for robotteknologi fra at fokusere på at opfinde dedikerede sensoriske enheder til at fokusere på at bygge AI, der kan lære og styrke vores robotter ved at bruge de naturlige sensoriske input, der allerede er tilgængelige for os, især kameraer.
Faktisk kræver enhver robot-implementering et sammenløb af mange fantastiske komponenter og et team, der ved, hvordan man får dem alle til at arbejde sammen. Udover AI er der naturligvis den længe eksisterende teknologi af pålidelige manipulatorrobotter i industriel kvalitet. Og, altafgørende, er der kameraer og computere, som altid bliver bedre og billigere.
GN: Hvad kommer til at overraske folk om robotter i løbet af de næste fem år?
Størrelsen, hvormed robotter bidrager til vores hverdag, oftest uden at se nogen af disse robotter. Faktisk vil vi sandsynligvis ikke personligt se robotterne fysisk interagere med de ting, vi bruger til hverdag, men der vil snart være en dag, hvor størstedelen af genstandene i vores husstand blev rørt af en robot mindst én gang, før de nåede os.
Robotik
Piratjagt drone overvåger kriminalitet på åbent hav. De bedste robotstøvsugere fra 2021 Sidewalk-levering er på vej mod en græstørvskrig Det bedste robotlegetøj til børn: LEGO, Raspberry Pi , og mere Hardware | CXO | Innovation | Kunstig intelligens