hmmm juste un truc, je joue professionnellement à super smash bros melee sur gamecube, je te promets qu'en moins de 2 secondes, je vois la difference entre du 50HZ et du 60HZ d'ailleur, pourquoi google se ferait ch*** à passer au 60 hz sur youtube si ça n'avait aucune utilité comme tu dis ? Et sinon, tu ne trouves pas qu'une télé 100 hz, c'est plus beau ? (je ne parle pas de télés 3D ( 50hz+50hz))
Nan, sérieusement, ça se voit que tu n'es pas un gamer, donc c'est normal que tu penses que les yeux ne sont pas si rapide que ça.
Déterrage d'un sujet de plus d'un an...
... Sinon, je tire mon expérience des logiciels et matériels vidéo et des jeux que j'ai développés, du temps passé (beaucoup nuits blanches) à jouer à de nombreux jeux ou à visionner des films sur divers matériels, et encore d'autres applications de mes connaissances en physiologie optique.
Si je peux également faire la différence entre une animation à 50 Hz et une autre à 60 Hz, c'est seulement parce qu'elles sont effectivement
différentes sur certains points perceptibles, mais non pas parce que la seconde est forcément meilleure.
Notamment, une mauvaise adéquation entre le rafraîchissement des images et la cinématique des scènes ou l'éclairage artificiel ambiant peut être visible, au point de devenir désagréable (... et parfois on pourrait être amené à préférer le 50 fps au 60 fps).
Si une augmentation de 20% de la vitesse d'affichage est juste perceptible, à ces vitesses elle n'améliore pas réellement la jouabilité : un gain maximum de 0,017 s à l'échelle du temps de réaction de l'oeil et des réflexes humains, c'est « peanuts ». En revanche, elle pourrait déjà être suffisante pour poser des problèmes à plus ou moins long terme à la machine qu'on a overclockée pour l'obtenir.
[EDIT: compte tenu de la remarque de edd72, pour les jeux, je pars du principe qu'ils seraient joués à la même vitesse dans les deux cas]
Si Google se fait « ch*** » à passer au 60 Hz sur YouTube, c'est parce que c'est (historiquement) la fréquence des écrans et des caméras (60 Hz = 60 fps progressif aujourd'hui, contre 60 Hz = 30 fps entrelacé auparavant).
Pour rappel, aux USA la fréquence du courant secteur est à 60 Hz (elle est à 50 Hz en France), et comme la plupart des lampes « clignotent » à deux fois cette fréquence, on a calé dessus la fréquence de rafraîchissement des équipements vidéo afin d'éviter un phénomène de battement pénible et usant pour la vue.
En plus de la disparition de l'entrelacement, les prises de vue à 60 fps permettent de meilleurs ralentis que celles à 30 fps.
Et pour certaines personnes (mais pas pour tout le monde) un doublement de la fréquence à l'affichage apporte une (légère) impression de meilleure fluidité dans les mouvements très rapides. Il en va de même si l'on compare des affichages à 100 Hz et 50 Hz. Mais c'est une question d'
interprétation des images par le cerveau, et non pas de
rapidité de la vision, laquelle est très largement dépassée à ces niveaux.
Cela est toutefois valable à condition que la capture (ou la construction) des images soit compatible avec la vitesse de restitution, notamment en ce qui concerne le rendu (ou l'impression) de flou de mouvement, et le rapport (entier) entre les fréquences de production et d'affichage : afficher en temps réel une animation à 70 fps sur un écran à 60 Hz ou 75 Hz reste une grosse erreur car cela nuit à la qualité visuelle (certaines images devant être dupliquées, supprimées ou interpolées périodiquement afin de respecter la cadence).
Enfin, je dirai qu'aujourd'hui les acheteurs de TV à 100/120 Hz sont des perfectionnistes tout juste abusés : ils
perçoivent la différence, et sont
persuadés que c'est mieux (surtout quand les images sont encore à 50/60 Hz, ça fait bien rigoler). Quant aux acheteurs de TV à 200/240 Hz (voire 400/480 Hz), ce sont carrément des gogos.