Google Lens is uitgebreid met nieuwe filters voor menu's en aankopen
Inhoudsopgave:
Eerder deze maand kondigde Google nieuwe filters aan voor Google Lens. Deze nieuwe toevoegingen zouden ons in staat stellen onze omgeving te analyseren met onze telefoon en ons gegevens te geven die net zo waardevol zijn als bijvoorbeeld het menu van een restaurant of de populairste gerechten. Deze functies beginnen gebruikers te bereiken, zij het met een klein herontwerp.
De nieuwe Google Lens-interface is toegankelijk via de Google Assistent of rechtstreeks vanuit Google Foto's. We hebben nu toegang tot 5 nieuwe modi die kunnen worden geselecteerd met behulp van een horizontale scroll.In deze nieuwe modi hebben we de opties: automatisch, vertaling, tekst, aankopen en ma altijden.
Google Lens voegt nieuwe modi toe met kunstmatige intelligentie, net als andere merken
Dit is helemaal niet nieuw, zoals we al hebben gezien vergelijkbare werking bij assistenten van andere bedrijven zoals Huawei of Samsung De operatie in feite lijkt het erg op elkaar. De automatische modus kan analyseren wat we zien en identificeren, hoewel het niet de meest nauwkeurige van allemaal zal zijn. In de volgende twee kunnen we met de vertaalmodus in re altime een tekst in onze taal verkrijgen en de tekstmodus is ontworpen om brieven uit de echte wereld naar onze smartphone te exporteren zonder ze te hoeven schrijven.
Tot slot kunnen de manieren van winkelen of eten de producten verder analyseren.De winkelmodus is in staat objecten te herkennen aan de hand van hun vorm of zelfs hun streepjescodes. Wat de voedseloptie doet, is ons de menu's van bepaalde restaurants bezorgen, hoewel daarvoor de bedrijven eerst moeten hebben voorbereid.
Lensopties zijn geweldig, maar veel bedrijven zijn er nog niet klaar voor
Deze modi verschijnen in een kleine carrousel onderaan het scherm en de knop om beelden vast te leggen hoeft niet te worden ingedrukt, Google Lens begint te werken zodra het een object voor de camera detecteert. Een andere interessante optie van deze software is dat het de foto's kan analyseren die we al in de galerij hebben en niet alleen de afbeeldingen waarop we ons met de camera concentreren. Het is ook mogelijk om slechts een deel van de afbeelding te selecteren en te analyseren, voor het geval niet de hele foto belangrijk is.
Dit nieuwe herontwerp van Google Lens is beschikbaar voor mensen die Google 9.91 beta gebruiken, het lijkt exclusief voor Pixel-telefoons, maar is ook al getest op sommige Samsung-telefoons. Het zal binnenkort voor iedereen beschikbaar zijn, zoals aangegeven door 9to5Google.
