Côté cuisine…

les photos avec le flash qui se voit dans les yeux me tapent sur les nerfs. Et pourtant c'est la grande mode, je connais plein d'amateur qui le font et sont exposés.
Sinon sympa la petite leçon, ça me rappelle à quel point j'ai adoré les photos people pour ensuite les haïr.

Pour la photo présidentielle tout ce que j'en retiens c'est les commentaires facebook : " j'aurais pu la faire avec mon iPhone ".

Libre à vous d'interpréter ceci.
 

Hum, c'est le genre de recette qu'il vaut mieux ne pas accompagner d'images :D

Autrement dit, autant je peux écouter ce genre de prose de la part d'un posteur qui ne nous gratifie d'aucun repère visuel. Autant venant de toi j'ai un sérieux doute sur la profondeur de ces mots quand je les compare à certaines de tes productions. Faut-il être à ce point déconnecté de soi pour se confondre ainsi ? Suis-je bête, mais non !? Il suffit d'haïr le sujet, de se complaire dans les canons dominants pour oublier sa propre faiblesse, son manque d'ouverture d'esprit et s'abandonner à de tels commentaires.

Toute cette bile déversée ici et là me fait penser au quidam du 19e siècle qui hurlait au scandale devant une peinture impressionniste et qui aujourd'hui est prêt à faire le pied de grue sous le cagnard pendant des heures pour s'extasier devant cette même peinture. C'est pathétique ou plutôt cela montre à quel point certains ont besoin de l'assentiment de la société spectaculaire pour aimer…

Ça te va comme interprétation. :)
 
  • J’aime
Réactions: GroDan
Toute cette bile déversée ici et là me fait penser au quidam du 19e siècle qui hurlait au scandale devant une peinture impressionniste et qui aujourd'hui est prêt à faire le pied de grue sous le cagnard pendant des heures pour s'extasier devant cette même peinture.

Pinèze il doit être over vieux le quidam, hé!


:D
 
Déjà Courbet ne pouvait pas s'empêcher de mettre un flash dans les yeux de ses sujets (souvent lui-même) :D

_____________________________________________gustavecourbet.jpg

En même temps, éviter les reflets dans les yeux, c'est duraille…
attachment.php

Bien sur il y a des malins comme Rembrandt (que crâneur celui-là)
203830-WC_self_portrait_at_an_early_age-large.jpg

A leur décharge, photoshop n'existait pas.

pablo-picasso-portrait-of-ambroise-vollard-olga39s-gallery-1339233455_b.JPG

Quoi que…


Prochainement, nous verrons comment gratter le métal de vos daguerréotypes avec un scalpel afin de marquer le reflet dans l'œil, reflet qui ne peut s'imprimer correctement du fait de la corrélation entre la pause trop longue et le nystagmus naturel.:D:D:D
 
Dernière édition:
  • J’aime
Réactions: aCLR
J'ai encore un beau sujet de cuisine :D:D:D Attention, c'est de la cuisine de chef :p:p:p


J'en ai déjà parlé il y a bien longtemps, mais Christophe Métairie vient de me faire découvrir un logiciel qui permet de voir cela concrètement avec les chiffres en allant analyser les données numériques des fichiers bruts : Rawdigger

Mais tout d'abord, rappelons concrètement ce que peut apporter une exposition courbe à droite : Pour faire court, en exposant un RAW avec une courbe à droite sur un vieux 350D on obtenait une qualité d'image supérieure une fois traitée à celle obtenue en JPEG exposée à l'ancienne (gris neutre) sur un 5D.

Ce que je disais le 31/07/2006
(MobileMe étant mort, toutes mes images des post précédents sont illisibles)

J'ai choisi une scène banale sur la gouttière de ma location de vacances :D
J'ai attendu que la lumière soit douce afin d'être certain que le capteur puisse largement encaisser les différents niveaux lumineux (on voit sur les premières courbes qu'il y a du vide d'un côté ou de l'autre).
Le capteur est celui du Canon 350D, soit l'entrée de gamme reflex de la marque [à l'époque].
L'objectif dessus est un bijou : Canon 70-200 f/4 L. Il permet d'obtenir de très beau Bokeh (flou de fond). Mais on verra justement ici qu'on peut obtenir des choses bien différentes suivant l'exposition.
Je prends trois clichés : sous-ex d'1/3, sans correction, et sur-ex. de 2. Voici les courbes qui sont en gros ce que le dos de l'appareil aurait indiqué :
Expo_courbesSous.gif
Expo_courbes.gif
Expo_courbesSur.gif


Après dérawtisation (La correction de bruit de lumière et de couleur ainsi que le renforcement sont inactifs pour la démonstration) on obtient des choses approchantes:

Expo_courbesSous_ok.gif
Expo_courbes_ok.gif
Expo_courbesSur_ok.gif

Expo__MG_5763Sous.jpg
Expo__MG_5764.jpg
Expo__MG_5760Sur.jpg

Expo__MG_5763Sous_crop.jpg
Expo__MG_5764_crop.jpg
Expo__MG_5760Sur_crop.jpg

Mais si on passe en 100%, on voit très vite de grosses différences, ici, au niveau du bokeh :


Ca tue hein ? :rateau::rateau:

On note que la sous-exposition est légère pour ne pas sortir des possibilités du capteur. Cela est dû au fait que la scène étant claire, une exposition sans correction lors de la prise de vue donne une image sous-ex. D'où une sur-exposition de 2 crans pour obtenir une image à la limite du brûlé. Pour obtenir un bokeh encore plus lisse, j'aurais pu essayer de brûler franchement une couche (ce qui exige le passage en manuel, pour ceux qui n'avaient pas compris à quoi servait cette fonction :D:D:p)

Pour comprendre ce qui va suivre, il faut savoir que les photosites de nos capteurs enregistrent la luminosité en niveaux de gris. Pour créer la couleur, certains photosites ont un filtre rouge (ils ne réagissent alors qu'aux rouges), d'autres un filtre Bleu et d'autres encore un filtre vert. Il y a deux fois plus de photosites qui codent le vert. On retrouve donc 4 couches (et non 3) dans un fichier Raw : une couche rouge (R), une couche bleue (B) et deux couches vertes (G et G2).
Sur les capteurs actuels, le convertisseur qui transforme le signal électrique analogique — généré par les photosites lorsqu'ils réagissent à la lumière — en signal numérique code sur 14 bits. Un Bit a deux états : 0 ou 1. Par conséquent, 14 bits, cela fait 2 puissances 14 valeurs soit 16384. L'échelle théorique des niveaux possibles entre le Noir et le Blanc va donc de 0 à 16384 sur un capteur 14 bits. C'est cette échelle que présente Rawdigger. Evidemment, cette échelle est théorique. Comme nous allons le voir, les capteurs n'ont pas une telle dynamique aujourd'hui. Ils écrêtent les hautes lumières bien avant les 16384 et du bruit vient rendre illisible le signal bien au-dessus de 0.
Et c'est tout l'intérêt de ce logiciel : voir ce qu'il y a dans le ventre du capteur que l'on utilise en analysant les images qu'il génère, afin de savoir au mieux l'utiliser. Il est très intéressant de savoir à partir de quand une des couches commence à écrêter. Les nuances au-dessus de ce niveau disparaissent pour se voir écrasées en une seule valeur. La couleur ne peut plus alors être vraiment fidèle. Intéressant aussi de savoir jusqu'où va la couche qui tarde le plus avant l'écrêtage car même si on n'a pas de détails en provenance des autres couches on a tout de même quelque chose, de la matière qui fera bien l'affaire en niveau de gris.

Voici une photo de mire à midi solaire. J'ai poussé mon exposition avec une courbe très à droite (sur le dos de mon APN, ça clignotait de partout)

rawdigger_MG_2577-shoot.png


La deuxième colonne présente les valeurs lumineuses présentent dans l'image pour chaque couche. On remarque rapidement que s'il y a bien des photosites qui codent un noir théorique total (0), on ne trouve aucun photosite qui code à plus de 11536. On est loin du 16384 théorique. On pourrait dire que j'ai sous exposé et qu'il n'y a tout simplement pas de blanc dans l'image. Comme je l’ai dit, j'ai au contraire surexposé. Il est plus probable que 11536 soit la valeur d'écrêtage du capteur ce qui expliquerait le fait que 4 couches présentent la même valeur maximale.

La troisième colonne présente ces valeurs pour une sélection donnée. Ici, j'ai sélectionné le carré blanc pour voir si des couches étaient écrêtées dans la valeur la plus lumineuse de la mire (qui clignotait sur le dos de l'appareil photo). Ce n'est pas le cas si la valeur d'écrêtage est bien 11536, la valeur maximum étant 9609.

L'histogramme de Rawdigger permet de visualiser un élément technique (de cuisine ;)) qui me semble essentielle en numérique :

L'écart entre chaque valeur lumineuses d'un capteur est très loin de celui qui existe pour la vision humaine. La phase la plus importante du traitement d'un fichier Brut par le logiciel que vous utilisez pour traiter vos photos RAW est donc la phase qui consiste à passer de l'échelle lumineuse codée par le capteur à celle de la vision humaine.

En effet, pour un photosite, 400 photons, c'est deux fois plus lumineux que 200 photons. Mais pour la vision humaine, cette différence est juste perceptible. La vision humaine, comme tous les sens humains, présente un rapport logarithmique entre l'information physique qui se présente et l'encodage de l'information sensorielle. Ainsi pour un humain, l'écart de luminosité entre 200 et 400 photons est le même qu'entre 400 et 800 photons.

L'histogramme de l'image précédente le montre clairement.

rawdigger_MG_2577-linear.png


L'abscisse présente les valeurs lumineuses du fichier RAW. Je rappelle que l'histogramme présente le nombre de pixels (ordonnées) par valeur lumineuse (abscisses). Par exemple, il y a exactement 1805 pixels de la couche bleue qui sont à la valeur 1000 dans cet histogramme (RawDigger permet un export des données sous la forme de table).
L'échelle de luminosité est ici celle du fichier brut. Comme vous pouvez le voir, l'espace entre les valeurs 2000 et 4000 est le même que l'espace entre les valeurs 4000 et 6000. C'est pour cette raison que cette courbe doit vous sembler étrange. Il semble ici que l'image soit totalement sous-exposée car les pixels sont concentrés dans les valeurs sombres. Or, on a vu sur l'image qu'il n'en est rien. L'échelle d'abscisse du haut correspond à celle de la vision humaine. Pour un humain, l'écart entre EV0 et EV1 est le même que celui qui existe entre EV1 et EV2. Mais on voit bien que ce n'est pas le cas sur le graphique : la distance entre EV1 et EV2 correspond exactement à 2 fois la distance entre EV0 et EV1. Il suffit donc de faire une transformation logarithmique pour obtenir une équidistance entre les unités EV. Voyons ce que cela donne :

rawdigger_MG_2577-Gama2_zero.png


C'est cette transformation que réalise votre logiciel lorsqu'il traite un fichier RAW. Comparez bien les deux histogrammes. Il y a une compression des hautes lumières vers la droite. On part de plein d'informations et au final on n'a pas besoin de tout ça. C'est du gâchis, mais cela n'influence en rien le résultat final. Mais inversement, il y a un étirement des basses lumières vers la droite, et là, il n'y a pas toujours assez de données pour encoder ce niveau lumineux. Cela se voit sur l'histogramme par l'apparition d'un peigne à gauche, il y a des trous entre les barres. La continuité entre les différents niveaux de luminance est rompue. Non seulement on perd de la précision, mais en plus on ramène à droite, des informations qui sont plus susceptibles d'être brouillées par du bruit coloré. Retournez voir la comparaison des différentes expositions sur le Goéland. L'image sous-exposée présente un net bruit de couleur. Des couleurs apparaissent carrément là. Cela s'explique par le fait que les photosites génèrent eux-mêmes un niveau de luminance alors même qu'ils restent dans le noir. Le niveau augmente avec la température du capteur, ce qui explique qu'il est préférable d'éviter les pauses longues en numérique : ça fait chauffer le capteur et ça génère du bruit. Nous verrons plus loin que ce capteur génère du bruit jusqu'à des valeurs de luminosité de plus de 40. Par conséquent, il est difficile de savoir si l'information en dessous de cette valeur est le résultat de la lumière arrivant sur le capteur ou issue du bruit interne. Autant dire qu'il est préférable de ne pas utiliser les informations inférieures à cette valeur. Pour mieux voir l'effet de peigne, voici l'histogramme avec zoom sur la partie au-dessus de 12.

rawdigger_MG_2577-Gama2.png


Le peigne est bien visible. On voit l'intérêt d'exposer avec une courbe à droite. Imaginons un tas de charbon sur un fond noir. Le fait de l'exposer au point que l'ensemble apparaisse gris clair permet d'encoder le sujet dans les zones de luminosité qui seront rendues avec énormément d'informations. Cela correspondrait à la région située autour de EV0 sur notre histogramme. Il suffirait ensuite de réduire l'exposition au "développement" pour ramener cette luminance dans les noirs. Mais c'est toute l'information qui partirait à gauche. On obtiendrait alors des noirs très précis, sans bruit de couleur, ceux-ci étant noyés dans le noir total. En fait on demanderait au logiciel de moins étirer les valeurs vers la droite, tout simplement.

Je vais maintenant évaluer mon Capteur comme Christophe Métairie le propose afin de savoir précisément jusqu'où je peux exposer sans risque de perdre de l'information colorée (en brûlant une couche) et cela, en m'appuyant sur le barre graphe du viseur de l'appareil photo…
 
Il s'agit ici de déterminer le seuil bas du capteur, seuil en dessous du quel du bruit est produit par le capteur lui-même dans le noir total. Puis de déterminer le seuil haut, seuil à partir du quel toute information est codé de la même manière, le seuil d'écrêtage. Enfin on évaluera le niveau maximum lorsque le barre graphe de la cellule indique 0. Avec tout cela, on peut estimer à partir de combien de diaph on risque de brûler une couche et à partir de combien de diaph on va voir apparaître du bruit. Au passage, on estimera la dynamique du capteur.


Pour le seuil bas, c'est assez simple, on mettra un bouchon sur l'objectif, on déclenchera avec une vitesse rapide sur une faible sensibilité (ISO100). On obtient cela :

rawdigger_MG_2575_sousex.png


J'ai gardé la même échelle pour que l'on puisse comparer les graphiques. Elle est donc coupée à 12. On voit cependant clairement le seuil de bruit du capteur. Les barres grimpent vite en dessous de 20.
Les niveaux lumineux maximums par couche sont de R=42, G=39, B=36 et G2=47. Donc on va avoir du bruit coloré sur les parties d'images qui correspondent à des valeurs inférieures à 40. Mais l'histogramme montre que c'est surtout en dessous de 20 que les choses se gâtent.

Pour comparaison, les valeurs du Pentax 645D de Christophe Métairie sont respectivement 17 ; 19 ; 15 ; 18. Pour ceux qui avaient un doute, mon 60D ne joue pas dans la même catégorie. :siffle:

Pour le seuil bas, il faudrait prendre un blanc parfaitement blanc. J'ai utilisé le dos d'une carte de référence à 12 heures solaire. Pour ne pas prendre de risque j'ai surexposé de 10 diaphragmes. J'ai donc calé le bar graphe de ma cellule sur 0 puis j'ai surexposé de 3 fois 10 crans, mon appareil étant règles avec un pas d'1/3 de diaph. Avec ça, je ne devrais pas avoir beaucoup de photosites qui ne soient pas à leur niveau maximum.

rawdigger_MG_2573_surex.png


Et bien, il y en a tout de même. On a des minis un peu en dessous des maxima. Mais l'histogramme nous montre que c'est rare. J'ai donc presque tous les pixels qui sont sur la valeur maximum. Ces valeurs sont R=11534, G=11535, B=11533 et G2= 11532. Il s'agit bien des valeurs que nous avions déjà identifiées sur la mire. On est donc assez loin des 16384, maximum théorique en 14 bits.
Pour comparaison, les valeurs du Pentax 645D de Christophe sont respectivement 15872 ; 15865 ; 15866 ; 15866. Pour ceux qui avaient encore un doute, le 60D ne joue vraiment pas dans la même catégorie. :eek:


Pour évaluer le 0 de la cellule, on refait une photo de la même surface blanche, mais en calant le barre graphe de la cellule à 0.

rawdigger_MG_2574_0EV-cellule.png


On voit que mon blanc n'est pas du blanc pour le capteur. Comme chez Christophe le vert est aussi franchement à droite, j'en déduis que c'est une caractéristique des capteurs. J'avais oublié de dire que c'est moi qui avais placé le EV0 à 1500. Il fallait bien que je le mette proche du 0 de ma cellule, je l'ai placé dans le vert. Par contre mon bleu est aussi en décalage par rapport à mon rouge, ce qui n'est pas le cas sur le Pentax de Christophe. Mais lui utilise un blanc garanti comme blanc. C'est peut-être ça. Donc mon calcul va être imprécis. Mais de toute façon, cela va être le vert qui va brûler le plus vite vu qu'il est déjà bien à droite.

Passons au calcul en reprenant la formule de Christophe Métairie :

pour 2 valeurs A et B nous pouvons calculer leur écart en Ev (diaph) avec la formule suivante:
formule.png
[au cas où l'image saute] écart=(log B - log A)/log 2
B est toujours la valeur la plus grande.

La valeur d'écrêtage se calcule avec B=maximum en surexposition de 10 diaph et A=Cellule à 0 . La valeur de seuil bruit se calcule avec B=cellule à 0 et A=valeur maximum dans le noir complet. La dynamique de la couche se calcule avec B=maximum en surexposition de 10 diaph et A=maximum dans le noir complet.

sous ex 0 cellule sur ex écart EV marge surex marge sousex
r 42 1287 11534 8,1 3,2 4,9
g 39 2814 11535 8,2 2,0 6,2
b 36 1775 11533 8,3 2,7 5,6
g2 47 2790 11532 7,9 2,0 5,9

[La table passe mal, je cloque une capture d'excel]
rawdigger_table.png


Donc si je souhaite ne pas écrêter de couche pour être sûr d'avoir une couleur fiable, j'identifie la zone la plus lumineuse en balayant l'image en mode spot et j'utilise un réglage qui me permet de ne pas dépasser 2 sur le barre graphe de la cellule dans cette zone. :up: Par contre, si j'ai besoin de pousser un peu à droite (par exemple pour avoir des détails dans les ombres), je sais que je peux aller taquiner le 3. Je perds alors le vert, mais je sais que mon logiciel me construira quelque chose de convaincant à partir du Rouge et du Bleu. C'est juste que la couleur ne sera pas fiable. Mais on est proche du blanc là tout de même. :love:

A j'oubliais, la dynamique du Pentax 645D de Christophe tourne autour de 10 diaph là ou le 60D est à 8. En même temps, il est à 10 000 € sans objectif le Pentax. Heureusement qu'il est meilleur que le 60D. :D:D:D
 
Dernière édition:
A voir si l'objectif utilisé ne fausse pas les données... On peut se rendre compte des limites du couple capteur/objectif en faisant des séries où l'on ne joue que sur un seul paramètre d'exposition (ISO, diaph, temps, voire température de couleur pour les boîtiers qui le permettent).
 
J'ai fait un petit test....J'ai demandé à mon petit fils s'il connaissait Logarithme A.
Réponse: C'est un groupe rock.;)
 
A voir si l'objectif utilisé ne fausse pas les données... On peut se rendre compte des limites du couple capteur/objectif en faisant des séries où l'on ne joue que sur un seul paramètre d'exposition (ISO, diaph, temps, voire température de couleur pour les boîtiers qui le permettent).

L'objectif à une teinte, une tonalité. Mais il n'influence en aucun cas la capacité maximale des photosites ou l'émission de bruit du capteur.
DxO est le leader de la gestion du couple capteur-optique. C'est son fonds de commerce.
Sur Lightroom ou sur ACR, il est possible de générer un profil colorimétrique différent pour chaque objectif. Mais, je ne vois pas de différence. Donc j'en utilise un seul.
 
Jusqu'à présent j'ai toujours crû que les performances du capteur dépendait aussi grandement de la lumière qu'il reçoit mais je me trompe peut être.
 
Salut,

Jusqu'à présent j'ai toujours crû que les performances du capteur dépendait aussi grandement de la lumière qu'il reçoit mais je me trompe peut être.
Pas besoin d'un objectif haut de gamme pour sur-exposer une photo et, comme ici, saturer les photosites en photons.

Le but est de voir les limites du capteur, pas de juger la qualité de la photo.

@+
iota
 
Jusqu'à présent j'ai toujours crû que les performances du capteur dépendaient aussi grandement de la lumière qu'il reçoit mais je me trompe peut-être.

La qualité de l'image en terme de teintes, de contraste et de microcontrastes, assurément. Photographier, c'est étymologiquement "dessiner" ou "peindre" avec de la lumière. Selon mon expérience, la qualité de l'image dépend des éléments suivants dans cet ordre d'importance :
- La lumière
- l'optique (qui me semble donc l'élément matériel principal — Je conseille un boîtier d'entrée de gamme et un bon objectif, comme Fedo me l'avait déjà conseillé)
- Le capteur

Mais le capteur à des capacités, des performances techniques "absolument", qui ne varient pas. Maintenant, il est évident que le capteur, comme la pellicule, ne permet pas de travailler toutes les lumières. Il est donc important de savoir qu'elle lumière le capteur est capable de gérer.
Par exemple, Alan nous rappelait que "Plus il y a du soleil, plus il faut un flash fort sur le portrait". En effet, une pellicule ou un capteur ont une dynamique limitée. Et le contraste entre les ombres et les zones en lumière sur un portrait pris en plein soleil est trop important pour être géré par les surfaces sensibles photographiques. Il faut donc "déboucher" les ombres.
C'est une des raisons pour lesquelles je n'aime pas prendre des photos au soleil.
 
Par exemple, Alan nous rappelait que "Plus il y a du soleil, plus il faut un flash fort sur le portrait". En effet, une pellicule ou un capteur ont une dynamique limitée. Et le contraste entre les ombres et les zones en lumière sur un portrait pris en plein soleil est trop important pour être géré par les surfaces sensibles photographiques. Il faut donc "déboucher" les ombres.
C'est une des raisons pour lesquelles je n'aime pas prendre des photos au soleil.
Bah un bon Raw "légèrement sous-ex" + Photoshop et ça roule… éventuellement une casquette pour toi, faut pas avoir peur de la lumière. :D :p :rateau: :cool:

890591-001.jpg
 
Dernière édition:
La qualité de l'image en terme de teintes, de contraste et de microcontrastes, assurément. Photographier, c'est étymologiquement "dessiner" ou "peindre" avec de la lumière. Selon mon expérience, la qualité de l'image dépend des éléments suivants dans cet ordre d'importance :
- La lumière
- l'optique (qui me semble donc l'élément matériel principal — Je conseille un boîtier d'entrée de gamme et un bon objectif, comme Fedo me l'avait déjà conseillé)
- Le capteur

Mais le capteur à des capacités, des performances techniques "absolument", qui ne varient pas. Maintenant, il est évident que le capteur, comme la pellicule, ne permet pas de travailler toutes les lumières. Il est donc important de savoir qu'elle lumière le capteur est capable de gérer.
Par exemple, Alan nous rappelait que "Plus il y a du soleil, plus il faut un flash fort sur le portrait". En effet, une pellicule ou un capteur ont une dynamique limitée. Et le contraste entre les ombres et les zones en lumière sur un portrait pris en plein soleil est trop important pour être géré par les surfaces sensibles photographiques. Il faut donc "déboucher" les ombres.
C'est une des raisons pour lesquelles je n'aime pas prendre des photos au soleil.

C'est une boutade. Ce que tu dis est très intéressant mais comme je n'utilise jamais de capteur sans objectif, très concrètement je suis arrivé à peu près aux mêmes résultats juste en shootant des séries et manipulant les paramètres cran par cran en mode manuel. Puis j'allais voir dans photoshop quelle marge de manoeuvre j'avais selon les clichés. C'est juste la vieille méthode sans chiffre où tu vérifies à l'oeil nu.