Nul

Google har udviklet VisionBonnet for høj ydeevne på enheden i computer vision.
Google
Tidligere på året introducerede Google den af aiy stemme projekt, som tillod beslutningstagere til at slå en Raspberry Pi i en voice-kontrolleret assistent, bruge Google-Assistent SDK.
Selskabet har nu lanceret af aiy (AI dig selv) Vision Kit, der lader dig slå Raspberry Pi udstyr ind i et billede-anerkendelse-enhed. Sættet er drevet af Google ‘ s TensorFlow machine-learning-modeller, og den vil snart opnå en tilhørende Android app til at styre enheden.
Ifølge Google, Vision Kit funktioner “på enheden neurale netværk acceleration”, der giver en Raspberry Pi-baseret boks til at gøre computer vision uden behandling i skyen. Den af aiy Stemme Kit bygger på cloud til naturligt sprog forarbejdning.
Som med de af aiy Stemme Kit, beslutningstagere nødt til at give deres egen Raspberry Pi Nul W, en Raspberry Pi kamera, 4 GB SD-kort, og strømforsyningen. Den Vision Kit i sig selv indeholder VisionBonnet tilbehør bestyrelsen, kabler, pap og ramme, linse udstyr, og et privatliv FØRTE til at fortælle andre, når kameraet er tændt.
Den VisionBonnet bestyrelsen blev udviklet af Google, og er drevet af Intel ‘ s Movidius MA2450 vision behandling chip. Denne chip er den hemmelige sauce i Vision-Kit.
Vision Kit-komponenter omfatter pap ydre skal, VisionBonnet kredsløb, en RGB-arcade-style-knap, en piezo højttaler, og en makro/wide linse kit.
Google
Kai Yick, et medlem af den af aiy Projekter team, fortalte den officielle Raspberry Pi magasin MagPi, at chippen er 60 gange hurtigere til at udføre computer vision, end hvis det var til at stole på en Raspberry Pi 3. Den VisionBonnet er forbundet til Raspberry Pi Nul W af et kabel, der er leveret i kittet.
Vision Kit beslutningstagere kan bruge flere neurale netværk, programmer, den første skal være en, der kan registrere, når mennesker, katte og hunde er i udsigt, ifølge af aiy Projekter. En anden neurale netværk vil opdage, glæde, sorg, og andre følelser. Et yderligere program, der er baseret på MobileNets, kan registrere 1.000 forskellige objekter, såsom en stol, orange, eller en kop.
Google håber udviklere vil bygge videre på disse neurale netværk og anvende dem til nye opgaver, såsom at lave den kat/hund/person detektoren kan genkende kaniner. At bidrage til at nå dette mål, er det forudsat et værktøj til at udarbejde modeller for efteruddannelse modeller med TensorFlow.
Google foreslår, at Visionen æsken kan bruges til at identificere forskellige planter-og dyrearter, se, når hunden er ved bagdøren, eller når bilen har forladt indkørsel, analysere dine gæster, følelser, eller endda oprette en brugerdefineret hjem sikringsordning.
Den Vision Kit er til rådighed fra elektronik sælger Micro Center for $44.99 og der vil være tilgængelig på December 31.
Men fans vil sandsynligvis ønsker at pre-order kit. Det første parti af aiy Stemme Kit udsolgt ret hurtigt, og det tog flere måneder, før flere bliver ledige. Det samme forventes at ske denne gang betragtning af at den første løber af Vision Kits består af kun 2.000 enheder.
Tidligere og relaterede dækning
Raspberry Pi: Denne Google-kit vil gøre din Pi i en voice-styret digital assistent
Google Assistent stemme interaktion kit vil give Pi fans til at tilføje stemmestyring til deres projekter.
Raspberry Pi: Google har planer om flere AI projekter til at følge DIY stemmegenkendelse kit
Google siger sin næste kaffefaciliteter projekter, der vil tilføje øjne, ører, stemme og en følelse af balance.
Relaterede Emner:
CXO
Digital Transformation
Tech-Branchen
Intelligente Byer
Cloud
0