Hintergrund: So funktioniert der Porträt-Modus des iPhone 7 Plus

Seite 2: Eingebauter 3D-Scanner

Inhaltsverzeichnis

Dabei kommt ein Algorithmus zum Einsatz, den das von Apple übernommene Startup LiNx entwickelt hat. Das Prinzip ist einfach und von jedem leicht nachzuvollziehen: Dazu fokussiert man mit dem bloßen Auge einen nahen Gegenstand, etwa einen Bleistift, und schließt dabei abwechselnd das rechte und das linke Auge. Man sieht dann, dass der Stift jeweils einen anderen Teil des Blickfeldes verdeckt. So kann man das, was sich dahinter befindet, erkennen. Das machen die leicht versetzten Blickwinkel der Augen möglich. Sie erlauben uns die räumliche Wahrnehmung oder die Entfernungsberechnung.

Apple arbeitet in der Kamera-App auf dem iPhone 7 Plus ganz ähnlich. Der Algorithmus erstellt ein aus neun hintereinander angeordneten Schichten bestehendes 3D-Modell des fokussierten Kopfes oder Objekts. Um den von Spiegelreflexkameras bekannten Unschärfe-Effekt zu erzeugen, muss die App nur noch den Hintergrund weichzeichnen. Dazu löst sie zunächst den Vordergrund von diesem.

Um die Unschärfe möglichst natürlich zu simulieren, erzeugt ein Algorithmus mit Hilfe der Doppelkamera ein 3D-Modell des fokussierten Motivs und zerlegt es in 9 Schichten. Die Schärfentiefe setzt daher nicht schlagartig ein, sondern allmählich sowohl im Vorder- als auch im Hintergrund.

(Bild: slrlounge.com)

Das iPhone kann allerdings den Schärfeverlauf realistischer darstellen als die aus Photoshop & Co. bekannte Funktion zum Freistellen von Objekten: Vom Fokuspunkt ausgehend nimmt die Unschärfe mit jeder davor und dahinter liegenden Schicht zu. Das klappt meistens recht gut, führt je nach Motiv mitunter aber zu merkwürdigen Ergebnissen (siehe Bilderstrecke).

Den Porträtmodus aktiviert man in der Kamera-App, indem man über dem Auslöser-Button das Kamerabild nach links wischt oder die Funktion "Porträt" antippt. Die Kamera schaltet dann automatisch auf das Tele-Objektiv um. Befindet man sich im richtigen Abstand zum fokussierten Gesicht oder Objekt, wird der Schriftzug "Tiefeneffekt" am unteren Ende des Displays gelb hinterlegt und die Schärfentiefe bereits im Livebild simuliert. Der Effekt erfordert nicht nur einen Mindestabstand von etwa 30 cm, sondern funktioniert auch nur bis zu einer Motiv-Entfernung von maximal 2,4 Metern.

Porträtmodus iPhone 7 Plus (13 Bilder)

Porträt-Modus

Das iPhone 7 Plus nutzt die Doppelkamera, um einen Schärfentiefeeffekt zu simulieren. Das Ergebnis ist stark abhängig von den Rahmenbedingungen, oft aber deutlich natürlicher als eine mit dem Bildbearbeitungsprogramm nachgestellte Unschärfe. Lockige Haare vor einem unscharfen Hintergrund sind für die Software aber eine echte Herausforderung, der Weichzeichner setzt an den Kanten zu hart ein und bügelt feine Details glatt.

Hat man in den iOS-Einstellungen unter "Fotos & Kamera" die Funktion "Foto behalten" bei "Porträtmodus" aktiviert, landen legt die Fotos-App zwei Aufnahmen ab: eine mit und eine ohne simulierte Unschärfe. So kann man beide gut vergleichen und sich für das bessere Ergebnis entscheiden.