Pixels contre iso

Démarré par Urogall, 27 Octobre 2007, 11:25:56

« précédent - suivant »

0 Membres et 1 Invité sur ce sujet

Urogall

Bonjour,
j'ai du mal à trouver une réponse claire a cette question que l'on s'est tous (?) posé : l'impact des iso en terme de qualité photo. Est-ce que cela influe sur le nombre de pixels?? Ce qui amène directement à la seconde question : mon 8 millions de pixels se transforme t'il en 6 millions de pixels à 400 iso?? :sad:

Personnellement, je fais beaucoup de photo animalière, ce qui m'amène à privilégier la vitesse sur les iso, et je tourne rarement en dessous de 500 iso, ce qui rend évidemment mes photos un peu plus "granuleuses", mais est-ce au détriment du nombre de pixels?? :shock:

J'ai beau éplucher le mode d'emploi, rien n'est dit.

Est-ce que quelqu'un peu éclairer ma lanterne? 8)
La faune sauvage ne sert à rien, si ce n\'est à faire plaisir à une bande d\'illuminés.

Fabien Gréban

En augmentant les iso, tu augmente la sensibilité du capteur. Ton capteur est alors plus sensible au bruit (équivalent au grésillement d'une radio) ce qui diminue la qualité de l'image, puisqu'elle est parasitée. ça ne change pas le nombre de pixels de ton capteur.



Fabien

Christian Rey

La sensibiité ISO n'a rien à voir avec  la définition des images.
Lorsque l'on augmente la sensibilité ISO, le signal issu du capteur est amplifié. Cela permet de réduire les temps de pose lorsque la luminosité diminue. En contre partie, le bruit est aussi amplifié et devient de plus en plus visible au fur et à mesure que l'on augmente la sensibilité.

Urogall

Merci pour vos réponses. Tout cela me parraissait très clair en argentique, mais en numérique, j'ai du mal à différencier le rendu informatique de celui purement photographique. :?
La faune sauvage ne sert à rien, si ce n\'est à faire plaisir à une bande d\'illuminés.

Christian Rey

Le bruit numérique s'apparente un peu au grain en argentique, à la différence près que les parasites sont plus colorés (bruit chromatique) du fait que le capteur est composé de photosites rouges, verts et bleus.

Urogall

photosites....ça se traduit comment sur un écran? Une "tranche" de couleur sur un pixel?
Y'en avait'il moins en argentique? (je profite d'avoir un technicien sous le clavier pour comprendre uy8)
La faune sauvage ne sert à rien, si ce n\'est à faire plaisir à une bande d\'illuminés.

Christian Rey

#6
Un capteur numérique est constitué d'une matrice de photosites.
Un photosite est une "cellule" qui est sensible à la lumière. Il existe généralement 3 types de photosites différents qui réagissent à différentes longueurs d'ondes (R,V ou B). Ces photosites sont généralement agencés selon une matrice de Bayer (pour majorité des capteurs CMOS ou CCD).

R V R V R V R V ....
V B V B V B V B ....
R V R V R V R V ....
..........................

Un pixel d'une image a trois composantes couleur (R, V, B). Compte tenu de la manière dont sont agencés les photosites, il n'y a pas de correspondance directe entre un pixel de l'image et les différents photosites R,V,B. Pour obtenir la couleur de chaque pixel constituant l'image, il faut donc interpoler les valeurs des photosites R, V et B les plus proches. Cette opération est appelée dématriçage. Elle directement réalisée par le boitier lorsqu'une image est prise en Jpeg, ou par un logiciel de "dérawtisation" lorsque l'image est prise en RAW.




jckat

#7
En fait, changer la sensibilité ISO sur un appareil numerique ne REVIENT PAS à augmenter la sensibilté du capteur malgré les idées reçues. Les photocites d'un CCD ou d'un CMOS n'ont à proprement parler pas de sensibilité seulement une efficacité quantique qui est FIXE. On parlera alors d'un signal produit qui est fonction d'une quantité de "lumière" reçu selon la longueur d'onde.
Tout se passe ensuite dans la partie logicielle du boitier qui joue sur la dynamique du capteur pour reéquilibrer le signal afin d'obtenir quelque chose qui, à l'oeil, paraitra correct.
En fait pour faire simple, le moteur (qui donnera de meilleurs résultats par des algorythmes plus évolués au fil des versions, exemple le DIgic III vs Digic I ou II) ne fait que jouer sur les niveaux pour "recentrer" l'histogramme de l'image brute fournie par le capteur et c'est pour cela, lorsque l'écart est grand (lorsque le signal est faible donc qu'il correspond à une prise de vue à "haute sensibilité") que le rapport Signal/Bruit chute dramatiquement, le traitement ayant poussé les limites de l'images dans ses derniers retranchements.

Le réglage de la sensibilité ISO sur les appareils numériques n'est qu'un "raccourci" trompeur hérité de la photo argentique. On pourrait très bien s'en passer. Ceux qui ont un doute sur mes dires devraient faire la petite expérience suivante : Mettez vous en mode RAW disons à 100 ISO, posez votre appareil sur un pied fixe et photographiez le même sujet avec un couple Vitesse/Diaphragme donné et augmentez la vitesse afin d'obtenir une sous exposition de 1,2 et 3 diaphs. Ne bougez rien et faites une image à 200ISO, 400ISo et 800ISO en gardant le couple Vitesse/diaphragme préconisé par l'appareil, donc qui sera le même que celui que vous avez utilisé en changeant la vitesse en sous-exposition à 100ISO.
Maintenant ouvrez votre logiciel de derawtisation favori et compensez simplement l'exposition à +1, +2, +3. Et vous verrez comme par magie que le résultat obtenu pour une image faite à 100ISO sous exposée de 2 diaphs, ratrappée par le logiciel de derawtisation, donnera Sensiblement voire exactement (les algos du logiciel et de l'appareil photo sont un peu différents) le même résultat que celle réalisée à 400ISO "bien exposée", notamment pour le bruit...

En outre, il est possible sur un capteur d'associer le signal d'entrée de plusieurs photocites afin d'avoir un signal de sortie plus élevé et donc d'augmenter le signal au détriment de la résolution, on appelle cela le binning (on associe les photocites par 2x2, 3x3 etc...) mais ceci est avantageux sur les capteurs monochromes et plus compliqué sur les capteurs couleurs du fait de la matrice de Bayer et n'est pas proposé sur les appareils photos grand public.

Pour avoir un complément d'information très détaillé et documenté sur la notion de sensibilité des appareils numériques, lisez l'excellentissime page de Christian Buil :
http://www.astrosurf.com/buil/eos40d/test.htm

Christian Rey

La sensibilité du capteur est effectivement fixe, néanmoins le signal de sortie est amplifié analogiquement avant d'être numérisé.
La technique décrite par Jkat permet effectivement de "simuler" des sensibilité ISO plus élevées en sous-exposant volontairement une photo et en la sur-exposant en postraitement. Néanmoins, le résultat n'est pas tout à fait équivalent à prendre la même photo avec une sensibilité plus élevée. L'image résultante sera en effet plus bruitée et les dégradés beaucoup moins doux.

En sous-exposant une photo, on augmente fortement le bruit de quantification (erreur d'approximation liée à la numérisation du signal) qui s'ajoute aux autres sources de bruit également amplifiées lorsque l'image sera éclaircie. Alors qu'en augmentant la sensibilité ISO (i.e. amplifiant le signal), le bruit de quantification reste le même.

Par ailleurs, la quantification du signal n'étant pas linéaire, mais logarithmique, la plus grande partie de l'information est contenue dans les hautes lumières, ce qui signifie également que le pas de quantification  est très grand dans les ombres. De ce fait le signal dans les ombres est bien moins approximé et le bruit de quantification plus important que dans les hautes lumière. De plus, en sous-exposant on réduit la dynamique de l'image.

C'est la raison pour laquelle il vaut mieux exposer de manière à avoir l'histogramme à droite (et sous-exposer en postraitement) pour obtenir une qualité d'image optimale.

Urogall

Citation de: Christian Rey le 27 Octobre 2007, 17:47:08

C'est la raison pour laquelle il vaut mieux exposer de manière à avoir l'histogramme à droite (et sous-exposer en postraitement) pour obtenir une qualité d'image optimale.

Effectivement, c'est une chose que j'avais remarqué  8)


Pour les explications techniques, merci et chapeau à vous deux. Mais je profite encore une petite fois de votre savoir :

J'ai bien compris le principe de dématriçage, ou "dérawtisation", mais quelle est la différence entre une dérawtisation en Jpeg et une en Tiff par exemple, beaucoup plus lourde et de bien meilleure qualité? car le principe doit être sensiblement identique, les ingrédients sont les mêmes, et la technique aussi, à priori. Seul le résultat change. :shock:
La faune sauvage ne sert à rien, si ce n\'est à faire plaisir à une bande d\'illuminés.

Christian Rey

Le traitement des données RAW est le même, c'est juste le format d'image de sortie qui est différent.

En Jpeg, l'image est codée sur 8 bits par composante (soit 256 niveaux) contre 12 ou 14 bits en RAW. Elle subie en plus une compression avec perte (le niveau de qualité est généralement réglable).

En tiff, l'image peut être codée sur 8 ou 16 bits par composante (au choix), et la compression n'est pas destructive. La qualité est donc maximale et il n'y a pas de perte d'information, mais cela se traduit par des fichiers beaucoup plus volumineux.

Christian Rey


jckat

#12
Tiens je me pose une question concernant le fait que tu dises : "En sous-exposant une photo, on augmente fortement le bruit de quantification (erreur d'approximation liée à la numérisation du signal) qui s'ajoute aux autres sources de bruit également amplifiées lorsque l'image sera éclaircie. Alors qu'en augmentant la sensibilité ISO (i.e. amplifiant le signal), le bruit de quantification reste le même."
Le bruit de quantification (P/(racine carrée de 12) avec P=nombre d'électron par pas codeur donc plus le codage est élevé moins la valeur est grande) n'est dépendant que du convertisseur analogique/numérique et du niveau de codage de celui-ci (8-12-14-16... bits).
Pourquoi celui-ci serait différent, que l'on amplifie le signal (avant le passage dans le CAN) ou non ?
Le bruit quantique ne doit pas dépasser le bruit de lecture il peut être considéré comme quasi négligeable et ce n'est pas vraiment cela qui va beaucoup jouer sur une image produite par un appareil photo classique du commerce... En outre, amplifier le signal en sortie du capteur signifie justement amplifier aussi le bruit propre au capteur et notamment le bruit de lecture et le bruit thermique, ce dernier ayant un impact bien plus important (voir les valeurs données du bruit de lecture pour le 40D à différents réglages de sensibilité ISO, sur le lien dans mon dernier post).

En tout cas les tests de C.Buil montrent clairement que le bruit, quel qu'il soit, n'est pas moins important pour les images faites à haute sensibilité que celles faites à basse sensibilité et "ratrappées" par la suite.  :?

Pour répondre à Ji-Em, je dirais personnellement que s'il travaille en RAW, cela n'aura aucune incidence du moment qu'il reste dans les limites de la dynamique de son capteur; donc ne pas "écrêter" les hautes lumières et perdre du signal en dessous du "seuil de sensibilité" de son capteur en basses lumières. Cela dépendra aussi du temps de pose (et de la température au moment de la prise de vue) puisque le bruit thermique montera très vite dans les basses lumières sur de longs temps de pose et sera quasi absent sur des poses très courtes. Pour vérifier cela, faites des séries de "dark" (image noire prise en obscurité totale et révélant le bruit du capteur) à différentes vitesses et températures.
À noter (hors sujet) que l'on utilise ces "darks" en imagerie astronomique afin de les soustraire des images pour éliminer le bruit thermique. Certains appareils photo le font automatiquement après une prise de vue très longue.

Urogall

Citation de: jckat le 28 Octobre 2007, 04:32:45
Tiens je me pose une question concernant le fait que tu dises : "En sous-exposant une photo, on augmente fortement le bruit de quantification (erreur d'approximation liée à la numérisation du signal) qui s'ajoute aux autres sources de bruit également amplifiées lorsque l'image sera éclaircie. Alors qu'en augmentant la sensibilité ISO (i.e. amplifiant le signal), le bruit de quantification reste le même."
Le bruit de quantification (P/(racine carrée de 12) avec P=nombre d'électron par pas codeur donc plus le codage est élevé moins la valeur est grande) n'est dépendant que du convertisseur analogique/numérique et du niveau de codage de celui-ci (8-12-14-16... bits).
Pourquoi celui-ci serait différent, que l'on amplifie le signal (avant le passage dans le CAN) ou non ?
Le bruit quantique ne doit pas dépasser le bruit de lecture il peut être considéré comme quasi négligeable et ce n'est pas vraiment cela qui va beaucoup jouer sur une image produite par un appareil photo classique du commerce... En outre, amplifier le signal en sortie du capteur signifie justement amplifier aussi le bruit propre au capteur et notamment le bruit de lecture et le bruit thermique, ce dernier ayant un impact bien plus important (voir les valeurs données du bruit de lecture pour le 40D à différents réglages de sensibilité ISO, sur le lien dans mon dernier post).


Houlà!! Merci jckat, mais là, il me faudrait un lexique.
C'est quoi "amplifier le signal en sortie du capteur"?? augmenter les iso?
Quelle différence avec le bruit de lecture et le bruit thermique?
La faune sauvage ne sert à rien, si ce n\'est à faire plaisir à une bande d\'illuminés.

Christian Rey

Un convertisseur A/N (CAN) possède une dynamique d'entrée fixe, comprise entre 0 et X Volts.
Pour faire simple, si un capteur délivre des courants variant de 0 à 1 V, un CAN (linéaire) travaillant en 8 bits générera une valeur numérique de 0 pour 0 Volt (noir), 127 pour 0,5 Volt (gris moyen) et 255 pour 1 Volt (blanc). Si l'image est correctement exposée, on utilse pleinement la dynamique du CAN.
En revanche si l'image est sous exposée de -1 EV, les signaux en sortie du CCD auront alors une amplitude comprise ent 0 et 0,5 V, de ce fait la dynamique du signal numérisé est deux fois plus petite (7 bits contre 8 bits). 
De ce fait, si on amplifiait le signal après numérisation, on se retrouverait rapidement avec des images avec une dynamique très réduite dès que l'on utilise des sensibilités ISO élevées.

Dans la pratique, comme les images sont codées en RAW sur 12 bits, il n'y aura pas de grosses différences lorsque l'on sous-expose de -1 EV ou -2 EV, ou que l'on monte la sensibilité. En revanche, les possibilités de postraitement dans les ombres seront plus réduites.


Citation de: Urogall le 28 Octobre 2007, 08:39:39
Houlà!! Merci jckat, mais là, il me faudrait un lexique.
C'est quoi "amplifier le signal en sortie du capteur"?? augmenter les iso?

Les photosites générent un courant électrique dont l'intensité est proportionnelle à la quantité de lumière reçue (i.e. nombre de photons). Ce signal est ensuite amplifié de la même manière qu'un signal sonore issue d'une platine CD est amplifié avant d'être envoyé aux hauts-parleurs.

Citation
Quelle différence avec le bruit de lecture et le bruit thermique?

Le bruit numérique est la moyenne quadratique des différents bruits entachant le signal.

Btotal2 = Bphotons2 + Blecture2 + Bthermique2 + Bnumérisation2

Le bruit thermique est l'incertitude sur le nombre d'électrons générés spontanément durant la pose et la lecture (courant d'obscurité). Ce bruit dépend fortement de la température, et varie proportionnellement au temps de pose pour une température donnée.

Le bruit de photon est une caractéristique intrinsèque à la source observée, qui ne dépend pas de l'instrument utilisé. La statistique est la même que pour le bruit thermique : il est proportionnel au temps de pose, et égal à la racine carrée du nombre de photons reçus.

Le bruit de numérisation (quantification) est l'erreur moyenne commise en échantillonnant le signal analogique sur un nombre fini de pas.

Le bruit de lecture est dû d'une part à l'efficacité du transfert de charges (perte d'électrons lors de la lecture du CCD) et d'autre part à la précision de l'amplification analogique.

jckat

#15
Citation de: ji-em le 28 Octobre 2007, 08:21:11
Cher Christian et cher Jckat ... à vous deux un immense merci !

Vous parlez de température lors de la prise de vue. Petite question naive: est-ce la température ambiante ou la température de la lumière ? ...

Ji-em

Bonjour Ji-em, on parle de température ambiante. En astronomie notamment où l'on est confronté à des temps de pose très long, on refroidit les capteurs (30-50°C en dessous de la température ambiante) afin de minimiser le bruit thermique.
En gros, celui qui va faire des photos de l'harfang des neiges aura moins de bruit sur ses images que celui qui va photographier un toucan dans les forêts tropicale. Mais il faut garder en tête, comme il a été dit, que le bruit est dépendant aussi du temps de pose.
La température de couleur en imagerie numérique (en argentique c'était pareil) n'est qu'un "équilibre" entre la réponse quantique de chaque photocite dans les 3 composantes (RVB) et leur pondération dans la composition de l'histogramme.

Citation de: PIO le 28 Octobre 2007, 07:24:46
Je suis ce fil avec un grand intérêt, et bravo à nos techniciens qui jonglent avec les photosites (j'en prends plein les yeux  uy8)
et j'ai une question:
   avec un 30D, un format 3504 X 2336 pixels en Jpeg
            avec un 100Macro, j'obtiens généralement un poids de 2 à 2.5 Mo
             et avec un 17/40 , je monte à 4 à 6 Mo
    Es-ce lié aux détails de la photo donc au taux de la compression?
Pierre


À mon avis il faudrait que tu regardes plus du côté de la composition de tes images. En macro tu as peut être plus "d'aplats" de couleur, plus faciles à compresser et moins gourmand en information. Sur un paysage grand angle à 17mm tu as beaucou pde petits détails, quasi impossible à compresser efficacement donc un poids d'image plus important.

Christian Rey

Citation de: jckat le 28 Octobre 2007, 17:06:16
À mon avis il faudrait que tu regardes plus du côté de la composition de tes images. En macro tu as peut être plus "d'aplats" de couleur, plus faciles à compresser et moins gourmand en information. Sur un paysage grand angle à 17mm tu as beaucou pde petits détails, quasi impossible à compresser efficacement donc un poids d'image plus important.

C'est exactement ça. Les images riches en hautes fréquences (i.e. textures, contours, bruit, etc.) se compressent plus difficilement (plus d'information, moins de redondance).

natrix59

Y'a pas a dire... y'a quand même des as d'informatique et autres technologies sur Béné  :grin:

Grég

PIO

Grand merci à vous et jckat pour ces échanges
Voilà toute la richesse de BNL
on aura toujours besoin de l'autre et l'on pourra apporter aussi
Pierre
"Le photographe, c'est celui qui se cache derrière l'appareil"
    de   moi

Willyvolcano

Boudiou que c'est pas simple!  :shock: Même si c'est bien expliqué, et c'est vraiment sympa d'eclairer ma pauvre lanterne ...Mais en photo, je ne comprend (malheureusement) qu'une seule formule:
1diaph+1vitesse+1lumière+1sujet=une photo... :mrgreen:

albatar

Aïe aïe aïe ma tête  er4

Citation de: Urogall le 27 Octobre 2007, 11:25:56
Bonjour,
j'ai du mal à trouver une réponse claire a cette question que l'on s'est tous (?) posé : l'impact des iso en terme de qualité photo. Est-ce que cela influe sur le nombre de pixels?? Ce qui amène directement à la seconde question : mon 8 millions de pixels se transforme t'il en 6 millions de pixels à 400 iso?? :sad:

Personnellement, je fais beaucoup de photo animalière, ce qui m'amène à privilégier la vitesse sur les iso, et je tourne rarement en dessous de 500 iso, ce qui rend évidemment mes photos un peu plus "granuleuses", mais est-ce au détriment du nombre de pixels?? :shock:

J'ai beau éplucher le mode d'emploi, rien n'est dit.

Est-ce que quelqu'un peu éclairer ma lanterne? 8)

Je crois que tu confonds résolution et définition  :wink:

Si la résolution reste la même à 100 et 3200 iso, la définition de l'image est bien altérée par la montée en iso.

Mais c'est difficile à quantifier, enfin pour moi  :mrgreen:

Christian Rey

Citation de: albatar le 30 Octobre 2007, 13:04:30
Je crois que tu confonds résolution et définition  :wink:
Si la résolution reste la même à 100 et 3200 iso, la définition de l'image est bien altérée par la montée en iso.

Toi aussi  :mrgreen:

La définition d'une image correspond à ses dimensions en pixels. Lorsque l'on augmente la sensibilité, ses dimensions restent inchangées (à moins que le boitier applique un sous-echantillonnage automatique à 3200 ISO), en recanche le niveau de bruit augmente ce qui altère la qualité de l'image.

La résolution d'une image n'a de sens que lorsque on l'imprime. La résolution indique le nombre de points par unité de longueur (pouce). Pour une image ayant une définition donnée, en fixant la résolution d'impression (DPI), on détermine la taille du tirage.

albatar

ah ok  :mrgreen:

J'ai confondu définition avec niveau de détails...

Bon alors je reformule  uy8

En montant en iso, on altère la qualité d'image  rytyt Et donc un 6mpx aura un meilleur niveau de détails à 100 iso qu'un 10mpx à 800 iso  :mrgreen:

Christian Rey

Citation de: albatar le 30 Octobre 2007, 13:25:07
Et donc un 6mpx aura un meilleur niveau de détails à 100 iso qu'un 10mpx à 800 iso  :mrgreen:

Pas forcément...
Le niveau de bruit sera sans doute plus élevé pour le 10mpx@800 ISO que le 6mpx@100 ISO (quoi que si l'on compare le 5D à 800 ISO et un bridge à 100 ISO, je ne suis pas certain que le bridge sorte vainqueur :wink:). D'un autre côté, le 10mpx permet de capturer des détails plus fins que le 6mpx (si l'optique tient la route)... difficile d'affirmer sans comparaison visuelle quelle sera au final l'image la plus détaillée. A voir donc si la perte de qualité engendrée par le bruit et plus ou moins importante que le gain en détails apporté par une définition d'image plus élevée, sachant que la comparaison restera très subjective.

jckat

#24
"D'un autre côté, le 10mpx permet de capturer des détails plus fins que le 6mpx (si l'optique tient la route)..."

Ça n'est pas forcement vrai voire même souvent faux... ;) Ça dépendra de la taille des photocites et uniquement de celle-ci.
La résolution angulaire  d'une optique (et donc au foyer la taille du plus petit détail produit), qu'on considèrera comme "parfaite" dépend de son diamètre et de son ouverture (rapport F/D, communément appelé ouverture en photo).

La formule pour calculer la taille au foyer de la tache de diffraction (plus petit détail résolu) est 1.22 Lambda/D avec lambda la longueur d'onde, D le diamètre de l'optique (à extrapoler selon l'ouverture f sachant que la focale F est fixe est que D= F / f).
On peut ainsi aisément calculer la taille de l'image d'un point au foyer dans les conditions de Gauss (centre optique) qui est limitée par la diffraction.

Le "champ visuel" vu par un pixel constitue l'échantillonnage. Si ce champ est supérieur à la taille de la tache de diffraction (image parfaite d'un point par l'optique) alors on est en sous-échantillonnage, si elle est inférieure, en sur-échantillonnage.
Le problème aujourd'hui avec la course aux pixels est qu'on est souvent dans des conditions de sur-échatillonnage. Par exemple, pour des pixels de 6 microns, rien ne sert de faire une photo à f/16, le plus petit détail sera bien plus gros que la taille du photocite. Certes il faut pondérer cela par la présence de la matrice de Bayer mais il y a des chances pour que le niveau de détail à 8Mp ou 12Mp soit rigoureusement identique si on utilise des optiques à f/8 ou plus (f/11...).
J'avais calculé pour mon 10D (photocites de 8 microns il me semble) que j'atteignais la résolution optique à partir de f/11. Sans compter qu'aucune optique n'est parfaite, base de mon postulat...  uy8