Google uppdaterar sitt visuella sökverktyg Google Lens med nya AI-drivna språkfunktioner. Uppdateringen gör att användarna kan begränsa sökningar med text. Så, till exempel, om du tar ett foto av en paisleyskjorta för att hitta liknande föremål online med Google Lens, kan du lägga till kommandot “strumpor med detta mönster” för att ange de plagg du letar efter.
Dessutom lanserar Google ett nytt “Linsläge” -alternativ i sin iOS -Google -app, så att användarna kan söka med vilken bild som helst som visas när de söker på webben. Detta kommer att vara tillgängligt “snart”, men det kommer att vara begränsat till USA. Google lanserar också Google Lens på skrivbordet i Chrome -webbläsaren, så att användarna kan välja vilken bild eller video som helst när de surfar på webben för att hitta visuella sökresultat utan att lämna fliken. Detta kommer att finnas tillgängligt globalt “snart”.
Dessa uppdateringar är en del av Googles senaste drivkraft för att förbättra sina sökverktyg med AI -språkförståelse. Uppdateringarna till Lens drivs av en maskininlärningsmodell som företaget presenterade på I/O tidigare i år som heter MUM. Förutom dessa nya funktioner introducerar Google också nya AI-drivna verktyg för sina webbsökningar och mobilsökningar.

Ändringarna av Google Lens visar att företaget inte har tappat intresset för den här funktionen, som alltid har visat lovande men tycktes tilltala mer som en nyhet. Maskininlärningstekniker har gjort objekt- och bildigenkänningsfunktioner relativt enkla att starta på en grundläggande nivå, men som dagens uppdateringar visar kräver de lite finess hos användarna för att de ska fungera korrekt. Entusiasmen kan dock ta fart – Snap uppgraderade nyligen sin egen skanningsfunktion, som fungerar i stort sett identiskt med Google Lens.
Google vill att dessa Lens-uppdateringar förvandlar dess världsscannande AI till ett mer användbart verktyg. Det ger ett exempel på att någon försöker fixa sin cykel men inte vet vad mekanismen på bakhjulet heter. De tar en bild med Lens, lägger till söktexten “hur man åtgärdar detta” och Google dyker upp med resultaten som identifierar mekanismen som en “växelväxel”.
Som alltid med dessa demos verkar exemplen som Google erbjuder enkla och hjälpsamma. Men vi måste själva testa det uppdaterade objektivet för att se om AI -språkförståelse verkligen gör visuell sökning till mer än bara ett salongstrick.