Passer au contenu

On a testé le mode portrait de l’iPhone 7 Plus (version beta)

Toujours en mode bêta réservé aux développeurs, la fonction d’arrière-plan flou dédiée aux portraits du nouvel iPhone 7 Plus est convaincante, mais pas encore parfaite.

Le second capteur de l’iPhone 7 Plus est en grande partie destiné aux portraits : lors de sa conférence du début de mois, Apple mettait bien en avant la fonctionnalité en projetant des exemples de photos sur ses écrans géants. La fonction n’était, hélas, pas disponible au lancement de l’appareil, une absence d’autant plus surprenante qu’Apple n’a guère tendance à promettre des choses « pour plus tard ».

Prévue pour la prochaine mise à jour du système iOS (version 10.1) qui devrait arriver dans les semaines/mois qui viennent, la fonction « Portrait » est déjà disponible pour les développeurs. C’est donc une version beta du système que nous avons testée, une version suffisamment avancée pour se faire une idée de la fonction phare de l’iPhone 7 Plus.

Bokeh zako ?

A.B. – 01net.com – Les appareils dotés de grands capteurs et d’optiques très lumineuses sont les plus à même de réaliser des clichés avec un beau bokeh.
Ici un Sony Alpha A7 Mark II et un 55f mm f/[email protected]

L’effet d’arrière-plan flou est communément appelé effet bokeh, une terminologie qui dérive du mot japonais boke (暈け en kanji ou ボケ en katakana) qui signifie « flou ». On parle souvent de la qualité du bokeh d’une optique pour décrire la nature des zones floues – eh oui, les ingénieurs travaillent autant sur les zones nettes que sur les zones floues ! Cet effet de flou est quasi impossible à reproduire avec un module caméra de téléphone et ce pour des raisons physiques. Trois facteurs jouent en effet sur la zone de netteté d’un appareil photo : l’ouverture du diaphragme, la focale (l’angle de vision de l’optique) et la taille du médium, capteur ou pellicule (voir encadré ci-dessous).

Si les optiques sont de plus en plus lumineuses, les capteurs ne peuvent guère grandir par manque de place et les focales sont généralement grand angle là aussi, essentiellement pour des contraintes d’espace. Apple a poussé la focale de son nouveau module à 58 mm mais a dû, pour l’occasion, réduire la taille du capteur et diminuer la luminosité de l’optique. Mais si la physique a rattrapé Apple, la marque californienne a fait appel à la puissance de son processeur et de ses algorithmes pour lutter contre elle.

Nouveau module caméra

Le module caméra principal de l’iPhone 7 Plus est identique à celui de l’iPhone 7 normal, à savoir une focale grand angle 28 mm (en équivalent reflex 24×36) ouvrant à f/1.8. Le nouveau module est bien différent : le capteur est un peu plus petit et l’optique un peu moins lumineuse, mais la focale est deux fois plus serrée, un 56 mm en équivalent 24×36, une focale généralement qualifiée de « normale » puisqu’elle respecte mieux les perspectives que les grands-angles qui “écartent” les objets.

Quant à parler de la taille des capteurs, attention : si l’écart des dimensions peut paraître anodin, le capteur “normal” de l’iPhone offre une surface presque 50% plus grande que le nouveau capteur. Comme nous allons le voir, si les algorithmes d’Apple arrivent bien à reproduire un arrière-plan flou, cela a un impact sur la qualité d’image notamment en basses lumières.

La puissance des algorithmes

L’iPhone 7 Plus capture plusieurs images au moment de la prise de vue et recréée un flou qui ne peut exister avec un capteur si petit comme on l’a vu. Le smartphone enregistre une première image Jpeg – image de référence que l’on récupère en sus de la version portrait – et enregistre des millions d’informations de distance qu’il va utiliser pour déterminer la distance (et donc la zone de netteté) du visage/sujet ainsi que celles des différents éléments/pixels de l’image.

Le travail s’opère presque en temps réel, mais si on peut profiter d’un aperçu de l’effet sur l’écran, on ne peut donc pas faire de rafale ou mitrailler un sujet puisqu’il y a un temps de latence entre 1s et 2s entre deux images.

Le mode portrait en action

A.B., 01net.com – Version “portrait” calculée par l’iPhone 7 Plus
A.B, 01net.com – Version classique de l’image enregistrée en même temps que la version “portrait”.

Fort logiquement nommée « Portrait » cette fonction est accessible uniquement dans l’application photo d’Apple. L’effet fonctionne correctement pourvu qu’on respecte certaines contraintes de distance, le système ne fonctionnant qu’entre 0,5 m et 2,5 m. Plus près que 50 cm, l’appareil ne dispose pas d’assez de champ – et l’iPhone n’est pas (encore) équipé d’une lentille macro. Plus loin, le sujet est sans doute trop noyé dans l’image. Ce n’est pas gênant outre mesure, l’arrière-plan flou pour un portrait étant un exercice assez codifié.

Côté qualité d’image et considérations de couleurs mises à part, c’est très convenable, que ce soit pour un visionnage à l’écran ou dans le cadre de tirages de taille moyenne. Le flou est très satisfaisant dans la plupart des cas, même si quelques mèches rebelles ont du mal à être lissées correctement.

Les utilisateurs exigeants qui analysent les clichés à la loupe remarqueront cependant que le bruit numérique et le grain de l’image produite par ce second capteur – et donc en mode portrait – sont plus forts et marqués que ce que l’on peut détecter sur le capteur principal, la faute à ses petites dimensions.

Jpeg uniquement

La nouvelle version d’iOS 10 permet aux applications d’enregistrer, en plus de la traditionnelle photo Jpeg, un fichier au format fichier RAW, un “négatif numérique” qui peut être développé par le biais d’un logiciel spécialisé. Prisé par les photographes pour le grand nombre d’informations qu’il renferme – dans les ombres et les nuages par exemple – ce format est indisponible en mode « portrait » pour la bonne et simple raison qu’un tel fichier RAW n’existe pas. L’iPhone 7 Plus travaille en effet sur la base d’un cliché Jpeg modifié par des informations de distance captée par le même capteur. Ce cliché Jpeg “normal” est enregistré en même temps que le fichier transformé, une bonne idée dans le cas où l’effet recherché ne soit pas aussi bien géré qu’on le souhaiterait.

Apple bat HTC, mais pas de beaucoup

A notre connaissance, le premier fabricant de téléphones à avoir intégrer une simulation d’arrière-plans flous était HTC avec son One M8. La performance était alors intéressante, mais de nombreux clichés manquaient de réalisme à cause d’une démarcation trop marquée entre zone floue et zone nette. Si Apple a pu aller plus loin que HTC, c’est autant le fait de l’amélioration des algorithmes que de l’explosion de la puissance des processeurs mobiles.

En regardant les résultats quelques années après, on réalise que taïwanais HTC avait réalisé un très bon boulot avec les composants de l’époque, sans réussir à capitaliser dessus, bien malheureusement. Il ne suffit pas d’être le premier, il faut faire les choses justes au bon moment. Et si la solution d’Apple n’est pas encore parfaite, c’est de loin la meilleure et la plus aboutie du moment.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.