Écran 2k sans lissage ou bien 4k avec lissage @1.5

iDanGener

.
Club iGen
12 Mars 2011
1 499
407
Bonjour,

Question courte: «Pour de la programmation et de la bureautique, pour un même espace de travail, par exemple 2560x1440 sur 27", vaut-il mieux un écran 2k sans lissage ou bien un écran 4k lissé à @1.5?».

Réflexion ayant amené à la question :) :
Il y a eu sur MacG et ailleurs sur le web, dans la dernière année, plusieurs longues enfilades concernant les écrans ainsi que plusieurs analyses (promotions?) sur Youtube. On y lit/entend souvent que (je résume): «une dalle 4k lissée à @1.2 (ou @1.5) n'offrira évidemment pas le rendu d'un lissage @2k, mais c'est mieux que pas de lissage du tout».

Lorsque je fais le test avec mon «vieil» écran LG FHD, en le passant en 1600x900 - ce qui correspond à un lissage de @1.2 comparativement à sa définition native 1920x1080 - c'est flou; très (!) flou. Bien que les caractères soient plus gros, je trouve le texte beaucoup moins lisible.

J'ai aussi fait le test avec un lissage @1.5 (1280x720) et c'est, là aussi, très flou.

Est-ce que ce sera le même effet (le flou sera-t-il le même) avec n'importe quelle dalle ou y a-t-il différentes façons de lisser à un même taux de @1.5 (ou 1.2), ou d'autres paramètres à considérer (juste pour ce qui est de la netteté des caractères)?

J'imagine que oui, sinon il n'y aurait pas 200$ de différence dans le prix des modèles 278CV (2K) et 279CV (4K) de la gamme ProArt de chez Asus (sur papier, il me semble que la définition est la seule différence entre ces deux écrans). Sinon, si les caractères sont plus flous sur le 4k, quel est son intérêt?

Vos éclairages/avis/opinions/observations/commentaires/rétroactions/ (j'oublie quelque chose? :)) seraient très appréciés.
 
Dernière édition:
Sinon, si les caractères sont plus flous sur le 4k, quel est son intérêt?
Bonjour,
Tout d'abord il faut comprendre qu'un écran 27" 4K n'est pas conçu pour Mac, mais pour Windows, et que pour un Mac il faut du 27" 5K : https://www.apple.com/fr/studio-display/ ;)
Ceci dit, si l'on accepte des compromis, on peut très bien travailler avec un 27" 4K sur Mac, le problème étant que ces compromis sont subjectifs, et que chacun peut les trouver plus ou moins acceptables en fonction de sa sensibilité et de ses usages, d'où les discussions sans fin sur les forums.
En ce qui me concerne je refuse d'utiliser un écran inférieur à la résolution d'un 27" 4K, mais c'est à toi de te faire ton opinion :up:
 
Bonjour :coucou: et merci à vous deux pour les retours.


Tout d'abord il faut comprendre qu'un écran 27" 4K n'est pas conçu pour Mac, mais pour Windows,


Mais comment font-il sur Windows? Il faut nécessairement afficher, pour eux aussi, le contenu à l'échelle, non?


Il y a actuellement le 24" LG 4K à 400€ (c'est les soldes). Je sais, ça n'est qu'un 24" mais il semble de qualité…


Je ne cherche pas nécessairement le produit le moins cher, car je garde mes choses longtemps, et payer 450$ ou 650$ pour un produit qui me durera 7-8 ans n'est pas un écart significatif; je me demande juste si, par exemple, ce flou que j'ai avec mon FHD, lorsque j'utilise un lissage @1.5, sera amplifié ou atténué avec un 4k de 27" lissé @1.5. Je pourrais ainsi déduire (j'imagine) si ce serait encore mieux ou pire avec un 4k sur 32" voire 34".

Pour la petite histoire :), j'ai utilisé pendant longtemps un iMac 5k 27" qui commençait à donner des signes de faiblesse. J'ai craint qu'il tombe en panne, alors je me suis acheté un Mac Studio un peu avant les fêtes pour pouvoir profiter des vacances pour travailler (!) avec celui-ci, en utilisant temporairement mon LG FHD dont l'affichage, lorsqu'il était connecté à mon iMac comme second écran avec un adapteur Apple Mini DP->VGA, était très mauvais. Là, avec une connexion HDMI au Mac Studio, le texte est très clair (peut-être que mon adapteur était défectueux); si j'avais quelque chose d'aussi clair avec 33% de plus de surface de travail dans les deux sens (H-V), je serais hyper-heureux (le hyper est peut-être ici un peu excessif).


Note: J'ai ajouté 4 écrans potentiels à ma liste d'achats sur Amazon. À chaque jour, je reçois des notifications de changement de prix pour l'un d'eux.

Pour le LG 32UN880 (32", USB-C, 4k, support ergo très intéressant), vendu et livré par Amazon, il y a eu:

6 janvier : 919 $CAN
9 janvier : 827 $CAN
10 janvier : 930 $CAN
11 janvier : 700 $CAN
12 janvier : 673 $CAN
 
Dernière édition:
  • J’aime
Réactions: Sly54
Mais comment font-il sur Windows? Il faut nécessairement afficher, pour eux aussi, le contenu à l'échelle, non?
Windows est conçu dès le départ pour s'adapter à tous les matériels exotiques de la planète, et donc il sait s'adapter à tous les écrans possibles et imaginables, grace (entre autre) à une gestion de la mise à l'échelle plus performante de celle du Mac.
On pourrait être surpris qu'Apple soit moins bon que Microsoft sur ce terrain, mais Apple ne s'intéresse qu'aux solutions parfaites, et s'adapter à des écrans imparfaits sous prétexte qu'ils sont moins chers, ce n'est pas au cahier des charges ;)

Je ne cherche pas nécessairement le produit le moins cher, car je garde mes choses longtemps, et payer 450$ ou 650$ pour un produit qui me durera 7-8 ans n'est pas un écart significatif; je me demande juste si, par exemple, ce flou que j'ai avec mon FHD, lorsque j'utilise un lissage @1.5, sera amplifié ou atténué avec un 4k de 27" lissé @1.5. Je pourrais ainsi déduire (j'imagine) si ce serait encore mieux ou pire avec un 4k sur 32" voire 34".
Si le budget est moins un problème que le risque de flou, alors il vaudrait mieux rester sur un écran avec une résolution autour de 220 pixel par pouce, sinon soit c'est flou (plus ou moins), soit c'est pas à l'échelle, et donc soit 4K 24", soit 5K 27", soit encore 6K 32".
 
Si le budget est moins un problème que le risque de flou, alors il vaudrait mieux rester sur un écran avec une résolution autour de 220 pixel par pouce, sinon soit c'est flou (plus ou moins), soit c'est pas à l'échelle, et donc soit 4K 24", soit 5K 27", soit encore 6K 32".

Pour le budget, je disais dans mon message précédent que l'écart de 200$, réparti sur 7-8 ans n'était pas significatif, mais avec le 5k de LG à 1550$CAN ou le luxueux Apple Studio à 2000$CAN, là on est ailleurs. Mais j'ai l'impression (comprendre «j'ai bien peur») qu'au final ce sera l'un des deux que je vais choisir.

Merci pour le retour.
 
Lorsque je fais le test avec mon «vieil» écran LG FHD, en le passant en 1600x900 - ce qui correspond à un lissage de @1.2 comparativement à sa définition native 1920x1080 - c'est flou; très (!) flou. Bien que les caractères soient plus gros, je trouve le texte beaucoup moins lisible.

J'ai aussi fait le test avec un lissage @1.5 (1280x720) et c'est, là aussi, très flou.

Bonjour,

Je pense qu'il y a méprise sur le sujet : le rendu de l'affichage sera différent entre abaisser la résolution d'écran (ce que tu as fait) et multiplier la densité de pixel (affichage Rétina chez Apple, Mise à l'échelle sur Windows).

Dans le premier cas la carte graphique réduit la taille de l'image qui sera rendu et ajuste l'image générée pour s'adapter à la taille de ton écran. C'est de là que provient l'effet de flou que tu dois certainement constater. Il n'en reste pas moins : l'image de base générée est plus petite que celle utilisée normalement. La comparaison sera un peu maladroite mais ce serait comme avoir une photographie de la taille d'une carte postale que tu scannerais, et que tu réessairais de réimprimer sur une feuille A3 en utilisant toute la surface. Tu peux le faire, mais tu auras une mauvaise impression.

Dans le deuxième cas, la carte graphique utilise la même résolution que la résolution native, mais elles recalculent les éléments à afficher pour augmenter la densité de pixel utilisée. Autrement dit, tu as une résolution maximale, mais en fonction du facteur utilisé, tu as un rendu plus détaillé au détriment de la surface disponible.



Si tu es sur Windows, tu peux ajuster la mise à l'échelle dans les paramètres (100%, 125%, etc.) que l'écran soit ou non Rétina.
Si tu es sur macOS, tu peux utiliser SwitchResX pour appliquer une résolution Retina sur un écran non-Retina.
 
Pour le budget, je disais dans mon message précédent que l'écart de 200$, réparti sur 7-8 ans n'était pas significatif, mais avec le 5k de LG à 1550$CAN ou le luxueux Apple Studio à 2000$CAN, là on est ailleurs. Mais j'ai l'impression (comprendre «j'ai bien peur») qu'au final ce sera l'un des deux que je vais choisir.
Pour être précis, j'ai choisi un 27" 4K d'entrée de gamme et j'en suis très très satisfait, mais c'est un jugement personnel
 
Pour être précis, j'ai choisi un 27" 4K d'entrée de gamme et j'en suis très très satisfait, mais c'est un jugement personnel

Et l'utilises-tu de longues périodes de temps à lire/produire du texte, sans sentir de fatigue oculaire ?


Bonjour,

Je pense qu'il y a méprise sur le sujet : le rendu de l'affichage sera différent entre abaisser la résolution d'écran (ce que tu as fait) et multiplier la densité de pixel (affichage Rétina chez Apple, Mise à l'échelle sur Windows).

Mais n'est-ce pas ce que je devrai faire si j'achète, par exemple, un 27" UHD de 3840x2160? Je vais devoir choisir (c'est ce que j'ai compris en tout cas) l'utiliser à l'échelle @1.5 pour avoir un affichage «simulé» de 2560 x 1440, qui est la surface que les gens semblent utiliser?


Dans le deuxième cas, la carte graphique utilise la même résolution que la résolution native, mais elles recalculent les éléments à afficher pour augmenter la densité de pixel utilisée. Autrement dit, tu as une résolution maximale, mais en fonction du facteur utilisé, tu as un rendu plus détaillé au détriment de la surface disponible.

Comment la carte graphique sait-elle que l'affichage souhaité est 2560 x 1440 sans baisser la résolution de l'écran? De quel autre manière puis-je paramétrer ce facteur? Est-ce que c'est implicite - avec MacOS - au moment de la connexion de l'écran avec l'ordi, est-ce programmé comme ça?
 
Est-ce que c'est implicite - avec MacOS
Comment la carte graphique sait-elle que l'affichage souhaité est 2560 x 1440 sans baisser la résolution de l'écran?
Bonjour,
Si tu choisis le mode à l'échelle, alors la résolution de l'écran n'est pas changé. Mais celui n'est pas disponible pour toutes les résolution d'écran d'où certains utilitaires qui proposent plus de mode 2x.
Capture d’écran 2023-01-13 à 16.19.17.png
Par contre si tu choisis le mode base résolution alors la résolution de l'écran est modifiée.
Capture d’écran 2023-01-13 à 16.14.25.png
Et c'est visible dans le les information système par exemple avec un écran 4K et un affichage à l'échelle équivalent au 1440p
Capture d’écran 2023-01-13 à 16.10.48.png
Mais n'est-ce pas ce que je devrai faire si j'achète, par exemple, un 27" UHD de 3840x2160? Je vais devoir choisir (c'est ce que j'ai compris en tout cas) l'utiliser à l'échelle @1.5 pour avoir un affichage «simulé» de 2560 x 1440, qui est la surface que les gens semblent utiliser?
Oui 1440p pour un écran 27" c'est bien.
A noter que ça demande plus de ressource car ça simulera un écran 5K, puis cela sera réduit en 4K pour être envoyer à l'écran.
 
Et l'utilises-tu de longues périodes de temps à lire/produire du texte, sans sentir de fatigue oculaire ?
Sur cet écran oui sans problème, mais plus lorsqu'il est connecté à un PC qu'à un Mac.
 
Mais n'est-ce pas ce que je devrai faire si j'achète, par exemple, un 27" UHD de 3840x2160? Je vais devoir choisir (c'est ce que j'ai compris en tout cas) l'utiliser à l'échelle @1.5 pour avoir un affichage «simulé» de 2560 x 1440, qui est la surface que les gens semblent utiliser? Comment la carte graphique sait-elle que l'affichage souhaité est 2560 x 1440 sans baisser la résolution de l'écran? De quel autre manière puis-je paramétrer ce facteur? Est-ce que c'est implicite - avec MacOS - au moment de la connexion de l'écran avec l'ordi, est-ce programmé comme ça?

Ce n'est pas la résolution qui baisse, c'est le nombre de pixels utilisés pour dessinger les éléments à l'écran qui augmente : en faisant une mis à l'échelle à @1.5, la carte graphique va bien générer des images de 3840x2160 pixels mais elle utilisera 1.5 pixels en horizontale et 1.5 px en vertical pour dessiner ce qui était auparavant 1 px en horizontal et 1 px en vertical. Ta surface d'affichage sera 3840 / 1.5 = 2560, 2160 / 1.5 = 1440). Tu auras donc un affichage équivalent à 2560x1440 mais la carte graphique dessinera des images en 4K.

Autrement dit, cela revient à zoomer de 1.5x les éléments à l'écran, sauf que la surface d'affichage reste la même (27 pouces), donc tu obtiens des éléments plus fins avec une meilleure qualité d'affichage ; ce que je recommande vivement pour tout ce qui est traitement de texte (même si personne n'est mort en 30 ans avec des écrans classiques).

Avec un écran compatible Retina, macOS permet d'ajuster le facteur @X.X ou de changer de résolution.
Avec un écran incompatible Retina, macOS permet d'ajuster la résolution.

Ma réponse était surtout là pour préciser que tu n'aurais pas le flou que tu as obtenu avec ton écran actuel parce qu'abaisser la résolution ce n'est pas la même chose qu'augmenter la densité de pixels utilisés pour afficher un élément à l'écran.

Pour la 2e question, en plus des flux vidéo / audio, les connections vidéos font transiter des informations techniques sur les caractéristiques des écrans et des périphériques. Quand tu abaisses ta résolution de ton écran : ta carte graphique dessine une image plus petite. Par le câble vidéo, elle connaît les résolutions acceptées par l'écran, le rapport de la surface d'affichage, etc. Et l'écran lui, a sa propre carte de contrôle qui lui permet d'ajuster ses pixels pour afficher ce que la carte graphique lui envoie. Du coup, il étire la petite image de la carte graphique pour qu'elle remplisse l'écran.

C'est d'ailleurs la même chose pour les télévisions, cela permet de savoir si le périphérique a des haut-parleurs et s'il faut envoyer le flux audio en plus, le profil de colométrie, etc.

J'ignore quelles sont les spécifications utilisées par macOS pour autoriser ou non l'utilisation de résolution Retina dans les Préférences Système, mais je n'ai jamais vu/lu un quelconque utilisateur être dans l'incapacité d'utiliser des résolutions Retina lorsque l'écran était compatible 4K (dans ton cas, utiliser la résolution 4K pour avoir un affichage de 2560x1440 avec une densité de @1.5). Après, un utilisateur comme SwitchResX (ou autre) permet d'outrepasser la détection automatique de macOS et de forcer des résolutions manuellement.

De mémoire et si je ne me trompe pas et par défaut, si l'écran est considéré comme compatible Retina, macOS mettra automatiquement un rapport @2.0 (sauf si cela a changé et que c'est passé à @1.5).
 
Merci à tous pour vos retours d'expérience ainsi que les généreuses explications détaillées. Je vais encore devoir prendre du temps pour décanter/analyser toute cette information et les éléments techniques que vous m'avez fournis me permettent de mieux cibler mes recherches sur le web.