Passer au contenu

Comment ça marche : Les capteurs

Si les appareils photo ont un seul capteur, il n’en va pas de même pour les caméscopes. Les modèles familiaux sont monoCCD, mais les caméscopes haut de gamme en utilisent trois. Pourquoi cette différence ? Et nombre d’autres
questions qui nous amènent à cette petite plongée dans le monde du capteur.

Inventé en 1975 , le capteur CCD est aussi vieux que le caméscope lui-même. Trente ans après, il est le principal critère de distinction des caméscopes : les uns possèdet un seul capteur (monoCCD) quand d’autres en possèdent
trois (triCCD). Cette différence joue bien entendu sur la qualité d’image. Le triCCD reproduit mieux les couleurs qu’un monoCCD. Pourquoi ? À la base, l’image vidéo naît du mélange de trois couleurs fondamentales : le
rouge, le vert et le bleu (appelé RVB). La fonction du capteur est de recomposer ces trois signaux en tenant compte des limites de la perception visuelle de l’être humain. Car notre ?”il dispose lui aussi de deux genres de
‘ capteurs ‘ : les bâtonnets et les cônes. Les bâtonnets ne captent pas la couleur mais sont utiles pour la vision de nuit. Les cônes, eux, sont plus réceptifs à la lumière et se divisent en trois catégories selon leur
sensibilité au rouge, au vert et au bleu.Pour comprendre le fonctionnement du capteur, il faut par conséquent tenir compte de plusieurs choses. Notre ?”il est plus sensible aux changements de luminosité (luminance) que de couleur (chrominance). L’?”il est incapable
de percevoir des niveaux de luminosité au-delà d’un certain seuil. L’?”il perçoit moins facilement des changements abrupts que des dégradés de couleurs ou de luminosité. L’?”il est plus sensible au vert à 60 % , moins
sensible au rouge à 30 % et encore moins au bleu à 10 %. C’est en partant de ces limitations physiologiques que sont nées les technologies de capteur.Pour mieux comprendre, imaginez que le capteur est un champ de blé qui produit des graines colorées et où chaque épi est un pixel. On y cultive trois couleurs de blé : le blé vert, le blé rouge et le blé bleu. Ces couleurs
primaires permettent de reproduire toutes les autres couleurs (jaune, rose, violet, etc.). Dans une exploitation de blé triCCD, les épis sont regroupés par champ de couleur, de façon égalitaire et séparée. Une exploitation triCCD possède ainsi un
champ de 300 000 blés verts, un champ de 300 000 blés rouges et un champ de 300 000 blés bleus. Sur une exploitation de blé monoCCD, les blés verts, rouges et bleus sont cultivés dans le même champ. Ils sont regroupés en carré de
quatre épis avec un blé rouge et un blé bleu à côté de deux blés verts. Le blé vert est donc deux fois plus important que le blé bleu et le blé rouge et représente 50 % de l’exploitation. Résultat : une exploitation monoCCD de
800 000 blés possède 400 000 blés verts, 200 000 blés rouges et 200 000 blés bleus.

Le capteur est au vert

On a vu que le pixel vert domine la moitié du capteur monoCCD car il compose l’essentiel de la luminosité perçue par l’?”il humain et que l’on appelle la luminance. Le problème est que, sur un capteur monoCCD, le
pixel bleu et le pixel rouge sont récoltés autour du pixel vert pour produire de la couleur. Pour les séparer, on utilise un filtre spécial dit ‘ filtre de Bayer ‘. Or, à chaque traitement, le pixel vert se combine avec les
deux autres et cela entraîne une reproduction des couleurs moins fidèle et moins précise. Cela se traduit par ce que l’on appelle les moirés.Lorsque l’on filme une mire de barres noires très proches les unes des autres avec un caméscope monoCCD et que l’on s’éloigne progressivement, les lignes se resserrent. Les lignes noires étant plus fines, elles ne
touchent plus qu’une partie du pixel sur le capteur et ne touchent qu’un pixel vert, bleu ou rouge. Le pixel qui ne perçoit rien interpole alors la lumière manquante en allant chercher le p ixel voisin pour combler le vide. Ce
phénomène crée artificiellement des pixels et des couleurs sur l’image qui n’existent pas dans la réalité. Cela explique pourquoi des lignes noires filmées de loin avec un monoCCD affichent sur l’image des couleurs inexistantes.
C’est la raison pour laquelle les animateurs télé évitent de porter des chemises à carreaux ou à rayures à l’antenne.Ce phénomène de distorsion des couleurs est moins perceptible sur un caméscope triCCD qui les traite de façon distincte (rouge, vert et bleu). De plus, comme chaque capteur ne gère qu’une couleur, à résolution totale comparable,
les pixels peuvent être plus gros que sur un monoCCD, ce qui au final augmente le piqué de l’image. Conséquence : l’électronique du caméscope n’a pas besoin de combiner des pixels pour reproduire les couleurs primaires et
donc, en théorie, le rendu final est optimal.

Et sur les appareils photo ?

Puisque l’utilisation de trois capteurs dédiés chacun à une couleur, au lieu d’un seul s’occupant de tout, donne de meilleures couleurs, pourquoi les appareils photo numériques utilisent-ils un seul capteur ?
L’opération est techniquement possible mais elle se heurte à différents problèmes qui en invalident l’intérêt. Tout d’abord, les capteurs d’appareils photo sont bien plus grands que ceux des caméscopes et produisent, de
ce fait, des images de qualité très supérieure. Le format DV a une résolution de 720 x 576 pixels, soit un peu moins de 420 000 pixels. En étant optimiste, un capteur de 800 000 pixels est largement suffisant. Il
n’est pas extrêmement coûteux d’en utiliser trois. En photo, où la résolution des capteurs se chiffre en millions de pixels, l’utilisation de trois capteurs poserait un problème de place dans le boîtier et de coût… sans
apporter d’amélioration réellement visible, car les techniques de traitement de l’image ont fait d’énormes progrès.Pour finir, les exigences de la vidéo ne sont pas les mêmes que celles de la photo. Le prisme qui sépare le rayon lumineux en rouge, vert et bleu dans les triCCD ne diminue pas la quantité de lumière arrivant sur le capteur. À
l’inverse, les systèmes monoCCD utilisent un filtre qui consomme un peu de lumière. De ce fait, les caméscopes triCCD ont des performances meilleures en basse lumière. Les appareils photo ne connaissent pas ce problème puisqu’ils
peuvent jouer sur le temps de pose. En conclusion, l’intégration de trois capteurs CCD dans un reflex coûterait très cher sans forcément améliorer la qualité d’image.Ceci étant, le système utilisé par les capteurs des reflex Sigma SD9 et SD10 est une forme de système tricCCD. Ce capteur, développé par le fabricant Fovéon, est différent des CCD et CMOS classiques. Ce système superpose trois
capteurs : un pour le rouge, un pour le bleu et un pour le vert. Au lieu d’être séparées par un prisme, ces trois composantes lumineuses le sont par leur longueur d’onde. Sur le terrain, cette technologie tenait ses promesses avec
des clichés d’excellente qualité, mais le capteur Fovéon n’a pas connu les mêmes développements (et surtout le même succès) que les CCD et CMOS.

Le triCCD dépassé

Mais si le triCCD bénéficie d’un traitement séparé des couleurs, cela n’implique pas que sa définition d’image soit forcément meilleure que celle d’un monoCCD. Tout dépend de la taille du pixel, de celle du
capteur et de la distance qui sépare deux pixels (la fréquence d’échantillonnage). Ainsi, les derniers modèles de caméscopes triCCD à bas prix, tels que le Panasonic NV-GS75 ou le JVC GZ-MC500, vendus entre 650 et 1500 euros, ne
témoignent pas d’une précision d’image vraiment supérieure à celle d’un bon caméscope monoCCD. La taille de leurs capteurs (1/6 de pouce) étant sans doute trop réduite, le fait d’estampiller un boîtier de caméscope
‘ triCCD ‘ ne garantit donc pas une qualité d’image à toute épreuve.La sortie récente d’un caméscope haute définition à 2 000 euros, chez Sony, et ne possédant qu’un seul capteur (le DCR-HC1), laisse d’ailleurs supposer que la technologie triCCD n’est plus
systématiquement retenue comme un gage de qualité. Plus surprenant encore est le Sony HVR-A1 : le premier caméscope professionnel monocapteur (3 000 euros). Dans ce cas précis, c’est le traitement numérique lié au capteur CMOS
qui assure la qualité d’image.

Capteur CCD mesuré en pouces, une faute de langage

La taille des capteurs CCD est toujours exprimée en pouces par les fabricants. Aussi, pour connaître la taille d’un capteur de 1/3 de pouce en système métrique, on calculerait : 2,54 cm (1 pouce)/3
= 8,4 mm. Mais ce calcul est faux. Car la taille des capteurs CCD se réfère en fait au diamètre externe des tubes d’analyse utilisés sur les caméras jusqu’à la fin des années 80. Le diamètre utile de l’image
formée sur la surface sensible du CCD est physiquement inférieur aux valeurs indiquées en pouces. Il est par exemple de 11 mm pour un capteur de 2/3 de pouce, alors que le diamètre théorique du tube est de 18 mm. Ainsi, rien sur un capteur
de 2/3 de pouce ne mesure réellement 2/3 de pouce. Il s’agit d’une convention de langage qui perdure depuis trente ans. La valeur en pouces a néanmoins l’intérêt d’indiquer une proportion de taille : un capteur 1/6
de pouce sera forcément plus petit qu’un capteur 1/4 de pouce. Or, on sait que la taille du capteur a une incidence directe sur la sensibilité et le piqué d’un caméscope.Enfin, le capteur tel qu’on le voit en photo ou à l’intérieur d’un caméscope n’est pas le capteur lui-même, mais l’ensemble du boîtier (qui ressemble à un insecte avec de minuscules pattes). Le capteur
est nettement plus petit et mesure à peine deux millimètres. Cela donne une idée de l’effort de miniaturisation des composants au fil des années et de la performance à rassembler plusieurs millions de pixels sur une surface aussi petite. On
comprend mieux pourquoi l’image est meilleure avec trois capteurs 1/3 de pouce portant chacun un million de pixels, qu’avec un seul CCD de 1/6 de pouce où se concentrent deux millions de pixels.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Édouard Maire