Die spiegelreflex kan bijna de deur uit: smartphonecamera wordt steeds beter

En dat is vooral dankzij slimme softwaretrucs

De eerste telefoons met een camera waren een lachertje. De beelden waren gruizig, de kleuren slecht, de scherpte zozo. Tegenwoordig weten telefoonfabrikanten de kwaliteit van de foto's steeds verder op te schroeven. Vooral dankzij de software.

Foto Arjen Born

Kunstmatige intelligentie, neurale netwerken, afstandschattingen, ruisonderdrukking - fabrikanten trekken alles uit de kast om de camera's van hun telefoons, voor velen het belangrijkste onderdeel, beter te maken. Dat de piepkleine camera's in smartphones tegenwoordig zo goed zijn, is een klein wonder, omdat de belangrijkste onderdelen, het objectief en de sensor, een loopje lijken te nemen met de natuurwetten.

Zo is de sensor - het deel dat het licht opvangt en omzet in miljoenen beeldpunten, de afgelopen jaren wat gegroeid - maar is hij nog altijd piepklein. De grootste sensors in smartphones hebben het oppervlak van de nagel van een pink. Voor fotografie gold altijd de wet: groter is beter. Want hoe kleiner de sensor, hoe minder licht erop valt en hoe lastiger het is om een goed beeld te reproduceren - zeker in het halfduister. De beeldsensor van de beste spiegelreflexcamera's zijn vijftig keer zo groot.

Maar in smartphones kunnen de sensors niet veel groter, omdat een grotere sensor een objectief met een grotere brandpuntsafstand vereist. In de praktijk betekent een grotere lens dat het toestel dikker wordt (of, zoals bij Apple-telefoons, dat de lens een beetje uitsteekt). Een ander probleem is dat een grotere sensor meer energie verbruikt en meer warmte produceert, waardoor de temperatuurhuishouding in gevaar kan komen.

Ook het objectief lijkt de grens van zijn kunnen te hebben bereikt. De lichtsterkte kan nog iets beter (dit betekent dat hij meer licht doorlaat, waardoor de beeldkwaliteit in het halfduister verbetert), en daarmee houdt het ongeveer op.

Ondanks technologische verbeteringen worden nu de grootste sprongen gemaakt met software. Dankzij slimme algoritmes, kunstmatige intelligentie en handige programmeerfoefjes maken smartphones nu foto's die de beeldkwaliteit van veel grotere camera's benaderen. Hoewel Apple en Google (dat volgens kenners met zijn Pixeltelefoon de beste camera heeft) telkens betere hardware in hun apparaten zetten, ligt de belangrijkste focus er op software. Computational photography is een wetenschappelijk vakgebied dat de afgelopen vijftien jaar sterk is komen opzetten.

Steve Jobs presenteert de eerste iPhone in 2007 Foto afp

Beeldstabilisatie

Een van de bekendste voorbeelden hiervan is beeldstabilisatie, een methode waarbij ongewenste trillingen van de camera worden gecompenseerd. Er zijn twee methoden: optische, waarbij correctie in het objectief worden gedaan. Die werkt het best, maar vergt meer complexe technologie die zich lastig in een dunne telefoon laat inbouwen. De meeste smartphones hebben daarom softwarematige stabilisatie. Hierbij wordt een virtueel randje om de beeldsensor gelegd. Zodra de camera trilt en de bewegingssensors in de telefoon dit registreren, 'beweegt' het bruikbare deel van de sensor in tegengestelde richting mee en kunnen kleine trillingen worden opgevangen. Het nadeel van deze methode is dat een deel van de toch al kleine sensor wordt opgeofferd om het beeld stabiel te houden. De foto zal uiteindelijk minder detailrijk zijn.

Contrast

Een van de nadelen van kleine sensors die toch detailrijke foto's moeten produceren is dat elke pixel slechts een beperkt contrast kan overbruggen. Het verschil tussen het donkerste deel en het lichtste is veel minder groot dan die van het menselijk oog of van grotere camera's. Het gevolg is dat de belichtingssoftware in zulke omstandigheden een keuze moet maken: welk deel mag eventueel overbelicht zijn (en dus min of meer 'wit' op de foto verschijnen), of juist onderbelicht (donker en gruizig). Gezichtsherkenning helpt daarbij. Als de camera een gezicht herkent, zal dat vermoedelijk het onderwerp zijn en zorgt de software dat dit deel goed belicht is.

Maar er zijn inmiddels betere methoden. Door heel snel een reeks opnamen te maken met verschillende stadia van belichting (onderbelicht, normaal belicht, overbelicht) en de beeldinformatie uit die beelden te combineren, ontstaat een foto waarbij zowel de donkere als de lichtste onderdelen goed uit de verf komen. De Pixel van Google gebruikt dit proces min of meer standaard, maar dan vooral met onderbelichte foto's. Door meerdere (doorgaans vijf tot tien) onderbelichte foto's over elkaar te leggen, ontstaat één goed belicht beeld, waarbij lichte gedeelten die anders wit zouden worden, toch nog kleurinformatie houden. Door de onderbelichting neemt de ruis toe, maar die kan door ruisonderdrukkingssoftware worden 'weggerekend' als meerdere beelden achter elkaar geschoten worden. De ruis is immers willekeurig, en door verschillende patronen te vergelijken kan de software bepalen wat ruis is en wat niet. Zo ontstaat dankzij enorme rekenkracht een goed belicht beeld. Telefoons van Apple maken ook gebruik van burst (veel foto's achter elkaar) om uit een reeks beelden automatisch het beste te kiezen.

Foto's in het donker

Zorg dat ze enigszins worden onderbelicht.

Als u niet de modernste smartphone hebt, zult u merken dat foto's in het (half)duister doorgaans niet erg best zijn. Tip: belicht een beetje onder. Het voordeel is dat de sluitertijd iets korter kan, waardoor er minder kans is op bewegingsonscherpte en hoge lichten (bijvoorbeeld een mooi uitgelicht gebouw in de avond) beter tot hun recht komen. Android-toestellen hebben vaak een uitgebreid belichtingsmenu, bij de iPhone houdt u uw vinger enige tijd op het scherm, waarna belichting en focus worden vastgezet. Vervolgens schuift u met uw vinger de belichting iets terug, richting het minteken. Meer tips: iphonephotographyschool.com - ook handig voor smartphones die niet van Apple zijn.

Inzoomen

Bijna geen enkele smartphone heeft een zoomlens. Een van de weinige uitzonderingen,de Asus ZenFone Zoom, laat zien waarom dat is: door alle optische mechanica wordt de telefoon dikker, al heeft Asus een slim trucje bedacht waardoor het zoomen 'overdwars' gebeurt. Het invallende licht wordt eerst door een prisma gestuurd, waardoor het wordt afgebogen en het door een plat liggend intern zoomobjectiefje gaat.

Een andere oplossing werkt met twee of meer objectieven, met elk een eigen brandpuntsafstand. De meeste nieuwe smartphones hebben twee van deze objectieven: een groothoek en een zoom. Doordat beide objectieven iets uit elkaar staan, kunnen ze diepte schatten, wat gebruikt wordt om scherptediepte-effecten te creëren bij portretten. Objecten die verder van de geportretteerde verwijderd zijn, worden steeds vager weergegeven. Opnieuw wordt met software een effect bereikt dat normaal gesproken alleen duurdere spiegelreflexcamera's kunnen. Diepteschattingen worden ook belangrijk voor toepassingen als mixed reality, waarbij virtuele objecten in de 'echte' wereld worden geplaatst. Google heeft een iets andere benadering en gebruikt de minieme verschillen in lichtinval tussen linker- en rechterzijde van elke beeldpixel om de afstand te schatten.

Doordat objectiefjes en sensors zo goedkoop zijn, zullen er vermoedelijk steeds meer van in smartphones komen. De L16 is daarvan een voorbeeld: deze telefoon heeft er zoals de naam al doet vermoeden zestien. Aan de universiteit van Stanford wordt al gesleuteld aan een (niet erg bruikbare) variant met 128 camera's.

De komende jaren zal vooral mixed reality een belangrijke rol gaan spelen in fotografie. Steeds groeiende rekenkracht en betere toepassingen van kunstmatige intelligentie zullen het beeld en de toepassingen van smartphonecamera's nog meer verbeteren.

Nog even en de spiegelreflex kan definitief de deur uit.

Meer over