Passer au contenu

L’iPhone 15 embarquera un capteur Sony « à la pointe » : un changement de philosophie pour Apple ?

Selon Nikkei Asia, le capteur intégré dans le module caméra principal de l’iPhone 15 (2023) sera un nouveau composant « à la pointe ». Ce qui tranche avec la stratégie des précédents terminaux où Apple est clairement suiveur depuis des années.

Après avoir embrassé le 48 Mpix pour son iPhone 14 Pro, voilà qu’Apple pourrait aller bien plus loin pour ses prochains iPhone 15. L’information est parcellaire et vague, mais elle montre un changement de mentalité chez Apple. Selon Nikkei Asia, l’entreprise américaine profiterait d’un tout nouveau capteur fraîchement développé par Sony et qui n’arrivera dans des terminaux qu’à partir de l’an prochain. Ce qui fait deux points d’exception pour les iPhone. Primo, il y a bien sûr ce côté « à la pointe » qui change radicalement par rapport à la démarche classique d’Apple. Quand on regarde la définition ou les spécifications des capteurs des iPhone, la marque est restée ultra conservatrice pendant des années. Si elle s’est convertie au capteur Exmor RS en 2014 avec l’iPhone 7 (technologie annoncée en 2012), elle est ensuite restée « bloqué » à cette définition durant cinq autres générations, en se contentant de faire grandir un peu son capteur.

 

Alors qu’Apple rejoint tout juste le peloton du suréchantillonage avec son capteur 48 Mpix, le monde Android est déjà à 200 Mpix ! © Samsung

Deuxio, il y a ici l’adoption d’un capteur de pointe. Généralement, c’est toujours un constructeur chinois qui annonce l’intégration des capteurs Sony dès leur sortie. Voire, comme Oppo, qui participe activement à son développement – et conserve des exclusivités dessus, quand bien même ce capteur est ensuite vendu à d’autres. En adoptant le 48 Mpix, Apple a certes évolué, mais dans un tempérament de suiveur : le supersampling (suréchantillonage) à partir d’un capteur de 48 Mpix existe chez la concurrence depuis plusieurs années puisque Sony a annoncé un tel capteur pour la première fois en… 2018 !

Le capteur, nerfs de la guerre de la qualité d’image

Le capteur est un élément fondamental qui conditionne la qualité d’image finale.

La qualité d’une photo repose sur trois piliers : le capteur d’image, l’optique et le couple processeur d’image/algorithmes. Tous sont importants dans le cadre de la production d’une bonne image finale. Le capteur est souvent le plus discuté, car c’est celui qui se révèle le plus facilement – à côté de lui, les formules optiques et les traitements de surface sont abstraits et la partie traitement d’image une véritable boîte noire.

A lire aussi : Sony, le grand empereur des capteurs (sept. 2017)

Mais le capteur conditionne aussi beaucoup de chose par les lois de la physique. Outre la définition (native et exploitée, dans le cadre du suréchantillonage), sa taille et sa structure préfigurent de la qualité d’image finale. D’un côté, ses dimensions conditionnent non seulement la définition ou la collecte de lumière (fréquemment mise en rapport en donnant les dimensions des photodiodes, exprimées en microns). Mais elle donne aussi une information du « look » des images. En effet, plus un capteur est grand, plus la zone de netteté à focale donnée est faible. Ce qui explique pourquoi les « vrais » appareils à grand capteur permettent de faire des portraits avec un bel arrière-plan flou naturellement – alors qu’il faut des algorithmes pour tenter de reproduire l’effet (de manière imparfaite) sur les petits capteurs des smartphones.

La technologie Exmor RS de capteurs dits “empilés” consiste à greffer de la mémoire vive au dos du capteur pour lui offrir des vitesses de lecture décuplées. © Sony

Il y a ensuite les technologies de fabrication du capteur qui sont devenues des éléments cruciaux pour les smartphones. On peut citer la technologie dite « rétroéclairée » Exmor R (back-side illuminated ou BSI) qui consiste à placer les circuits non pas devant la grille des photodiodes, mais à l’arrière. Ou l’ISOCELL ou isolation des photodiodes par des substrats qui empêchent le « rebond » des photons dans les puits de lumière. Ou encore le capteur dit « empilé » Exmor RS (stacked) qui consiste à « souder » de la mémoire vive au dos du capteur pour lui permettre d’atteindre sa vitesse de lecture séquentielle maximale et ainsi proposer des rafales inédites.

Autant de technologies qui sont importantes pour les appareils photo normaux… et tout bonnement cruciales pour les smartphones. Car alors que les boîtiers classiques ont de gros capteurs et de grosses optiques, les smartphones doivent composer avec de tout petits composants. Récupérer plus de lumière (BSI), subir moins de rebonds parasites appelé « crosstalk » (ISOCELL) ou pouvoir combiner plus d’images pour produire un bon cliché (stacked) sont bien plus importants que pour les vrais appareils photo. La preuve : ces technologies sont bien souvent d’abord intégrées aux smartphones avant d’être déployées dans les boîtiers (mais cela s’explique aussi par une plus grande facilité d’industrialisation sur les petits capteurs).

Apple (enfin) au front ?

Nikkei Asia n’a pas confié de détails quant à ce que signifie pour Apple profiter d’un capteur « de pointe ». Si on se base sur le portfolio de technologies déjà existant chez Sony, on peut affirmer qu’il sera au moins BSI et stacked. Avec l’équivalent maison de l’ISOCELL de Samsung, qui est en fait déjà déployé chez Sony (les entreprises ne mettent pas des noms commerciaux sur toutes leurs technologies). On sait juste que ce capteur sortira de l’usine de Nagasaki qui est la seconde plus importante avec celle de Kumamoto (que nous avons visitée en 2017).

A lire aussi : On a rencontré les ingénieurs de Sony qui veulent renverser Canon et Nikon (sept. 2017)

On peut aussi imaginer Apple partir à la course à la taille en faisant grandir son capteur de manière significative. Car même si le capteur au format 1/2.8’’ de l’iPhone 14 Pro est le plus grand de l’histoire d’Apple, le monde Android a déjà des capteurs 1/1.2’’ voire 1 pouce ! Finalement, et parce qu’Apple a les poches plus grandes que toute l’industrie, on pourrait aussi imaginer un déploiement d’une nouvelle technologie Sony exclusive aux iPhone, comme le font déjà de nombreux acteurs Android. Si cela était le cas, cela marquerait un vrai changement de stratégie pour Apple et un comportement plus agressif de la marque dans ce domaine. Rendez-vous en septembre 2023 pour voir si Apple est allé au bout des choses.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Nikkei Asia


Votre opinion
  1. La profondeur de champ (netteté des portrait sur fond flou) n’a rien à voir avec la taille des capteur. C est la focale de l optique qui joue.

    1. Bonjour,
      La focale de l’optique n’est pas l’unique responsable de la profondeur de champ.
      Sont responsables :
      – la couverture angulaire de l’optique (la focale)
      – l’ouverture de l’optique (notée f/x)
      – les dimensions de la surface photosensible
      Ce n’est pas moi qui le dis, mais la physique (ou plus précisément, les lois de l’optique).

      Plus une optique a une couverture angulaire large (grand-angle), plus la plage de netteté est large – et plus une optique a une couverture angulaire étroite (téléobjectif), plus la plage de netteté est faible.
      Plus le diaphragme ouvre grand, plus la plage de netteté est faible. Plus le diaphragme est fermé, plus la plage de netteté est grande.
      À ouverture (exprimée en f/x) et couverture angulaire (exprimée en mm et en équivalent 24×36) équivalentes, plus la surface photosensible est grande, plus la plage de netteté est faible.
      Cordialement.

Les commentaires sont fermés.