Inhoudsopgave:
- Dit is hoe het algoritme van Google werkt
- Automatische correctie rekening houdend met de context
- Misschien zien we deze technologie in de Pixel
Onderzoekers van Google en MIT hebben een algoritme ontwikkeld dat fouten in groothoekopnamen probeert te corrigeren.
Je hebt misschien gezien dat de gezichten van sommige mensen er uitgerekt, licht geplet of vertekend uitzien op foto's. Hoewel het misschien te wijten is aan de weinige vaardigheden van de fotograaf, is de waarheid dat opnamen met de groothoeklens van mobiele apparaten meestal vervorming veroorzaken in objecten of mensen die zich aan de rand van het beeld bevinden.
Er zijn verschillende methoden die dit probleem proberen op te lossen, maar tot nu toe is er geen enkele zo effectief geweest als het nieuwe voorstel van Google. Hoewel het misschien gemakkelijk lijkt op te lossen, is het dat niet, omdat het complexe lokale bewerkingen vereist die geen invloed hebben op de rest van de objecten op de foto.
Dit is hoe het algoritme van Google werkt
Zoals de onderzoekers uitleggen, detecteert dit algoritme gezichten en creëert het een mesh waarmee dit type vervorming automatisch kan worden omgekeerd bij het maken van een opname met een brede hoek, zoals geïllustreerd in de afbeelding:
We kunnen het verschil zien bij het toepassen van dit algoritme in de volgende afbeeldingen. Het is een selfie die is gemaakt met een groothoeklens met een gezichtsveld van 97 °.
De eerste afbeelding toont de vervormingen in de gezichten en de tweede laat zien hoe het algoritme de gezichtsvormen in hun oorspronkelijke staat heeft hersteld.
Dat wil zeggen, dit proces wordt automatisch geactiveerd bij gebruik van de groothoeklens, waardoor deze speciale hulp aan gezichten wordt geboden, maar zonder dat de rest van het beeld verandert. En natuurlijk maakt de snelheid van deze automatische correctie (ongeveer 920 milliseconden) het onmogelijk voor gebruikers om te detecteren.
Volgens de tests die ze hebben uitgevoerd, werkt dit algoritme met succes in het bereik van 70 ° tot 120 ° in het gezichtsveld, waarbij het bijna alle mogelijkheden van een mobiel apparaat bestrijkt.
Om het potentieel van dit algoritme te benutten, hoeft de gebruiker geen actie te ondernemen of een speciale cameramodus te activeren. Deze functie wordt alleen automatisch geïmplementeerd als wordt gedetecteerd dat de groothoeklens wordt gebruikt.
Automatische correctie rekening houdend met de context
We kunnen de dynamiek van dit algoritme zien in de volgende video:
Het algoritme corrigeert automatisch rekening houdend met de rest van de objecten die op de scène verschijnen, zodat de volledige context van de foto overeenkomt. De resultaten zijn natuurlijk zonder details die aantonen dat de foto überhaupt is gewijzigd.
Het team achter dit project heeft een fotogalerij op Flickr gedeeld die laat zien hoe verschillende methoden dit probleem aanpakken in vergelijking met de dynamiek van hun algoritme. Er zijn meer dan 160 foto's (zoals degene die u aan het begin van het artikel ziet) die ons helpen de resultaten te evalueren.
Misschien zien we deze technologie in de Pixel
We mogen hopen dat dit algoritme of een daarvan afgeleide technologie zal worden toegepast in de volgende generatie Pixel, aangezien het team dat aan dit project deelneemt, medewerkers van Google zijn.
In het document dat ze hebben gedeeld, hebben ze er echter niets over gezegd. Deze eerste tests van het algoritme in actie zijn succesvol geweest en laten eens te meer zien hoe het potentieel van kunstmatige intelligentie de dynamiek van mobiele apparaten kan verbeteren en het leven voor gebruikers gemakkelijker kan maken.
Omdat het hebben van een vergelijkbare dynamiek in ons mobiele apparaat ongetwijfeld veel hoofdpijn en tijd zou besparen bij het proberen deze vervormingen in de foto's te bewerken.