Ne pas confondre définition et résolution (et éviter cette vieille blague de geeks)

Note de service : faire une blague à base de « ma résolution pour 2012 c’est du 1 024 x 768 », c’est interdit.

D’une part, nous ne sommes plus en 2001 : mes écrans travaillent en 1 680 x 1 050, 1 920 x 1 200 et 1 600 x 1 024 (et bientôt 2 560 x 1 440). Le 1 024 x 768, c’est votre antique iBook ou votre vieil écran de 15 pouces il y a (très) longtemps.

Ensuite, bordel, 1 024 x 768, c’est une définition, pas une résolution.

La définition, c’est le nombre de points de l’image, 1 024 x 768 par exemple. C’est indépendant de la taille de l’écran. C’est pour ça qu’on parle d’un téléviseur HD pour Haute Définition. Qu’il fasse 32 pouces ou 55 pouces, ça reste du 1 920 x 1 080.

La résolution, c’est le nombre de points par pouce carré (par exemple). C’est donc dépendant de la taille physique de l’écran. Un 32 pouces en Full HD, c’est 68 ppp (ou dpi). Un 55 pouces, c’est (seulement) 40 dpi. Un écran d’ordinateur, c’est généralement entre 100 et 133 dpi (rarement plus, rarement moins).

EDIT : comme on me le fait remarquer, Windows (et Mac OS X) n’utilisent pas le bon terme. Ce n’est pas une raison : c’est faux. C’est comme les Mo de Windows qui sont en fait des Mio.