Spécialiste des standards Web et auteur du livre CSS 2 - Pratique du design Web, paru en juin 2005 aux éditions Eyrolles, Raphaël Goetter nous explique pourquoi et comment utiliser les CSS pour concevoir des sites plus faciles à maintenir et mieux référencés naturellement.
“La principale qualité d'un site est de ne rien imposer à son visiteur !”
Raphaël Goetter : Voilà une question très vaste qui nécessite au moins un
double point de vue : celui du concepteur de sites web et celui de l'utilisateur.
Pour le concepteur web, la qualité d'un site implique que le contenu soit visible et
utilisable correctement par tous les visiteurs.
Elle s'accompagne de mots magiques comme ergonomie, interopérabilité,
accessibilité, pertinence du contenu, etc. Tout autant de domaines très
vastes qu'un concepteur doit mettre en place.
Pour cela, le concepteur doit prendre en compte non seulement les différents navigateurs et supports qui peuvent
exister, mais aussi la pluralité des internautes. Il ne faut jamais croire que l'utilisateur a le même profil et
les mêmes besoins que soi.
Pour le visiteur, la qualité d'un site dépend de plusieurs critères :
A noter qu'un site répertorie toutes les "bonnes pratiques" à suivre pour améliorer la qualité de son site : www.opquast.com.
“Se conformer à une norme commune, c'est s'assurer que tout le monde parle la même langue et que les documents soient universels.”
R.G. : Les standards W3C (qui ne sont que des recommandations, je me plais à le rappeler)
préconisent l'allègement des pages, la concision et la propreté du code HTML, la prise en compte des handicaps
des visiteurs et bien d'autres choses, afin que tout le monde, quelque soit son handicap, accède à Internet.
La citation de Tim Berners-Lee, inventeur du Web, tombe bien à propos : "La richesse d'internet réside dans
son universalité. Il est essentiel que chacun, handicapé ou non, puisse y avoir accès."
Cette citation résume très bien l'idée générale véhiculée par les standards web : chaque individu est différent des
autres et Internet doit être adapté à tout le monde, quel que soit son handicap (physique, auditif, visuel ou moteur) ou
son support (navigateur, système d'exploitation, etc.). C'est pour cela qu'il existe des standards et des normes
d'accessibilité du Web. Se conformer à une norme commune, c'est s'assurer que tout le monde parle la même langue et que
les documents soient universels.
R.G. : Pour rappeler rapidement ce qu'on entend par "sémantique", le sens appliqué aux pages
web est celui-ci : "la sémantique, c'est une information apportée sur le contenu, destinée à être exploitée."
C'est-à-dire employer chaque balise HTML selon sa fonction prévue et non pour son aspect par défaut (l'aspect pouvant
être modifié à votre guise en CSS).
Par exemple, vous devez utiliser la balise <h1> pour un titre principal et non la balise <p> avec une
modification du texte (grossissement de la police, etc.) pour qu'il ressemble graphiquement à un titre.
“Seul le contenu et la structure du document ont un sens pour Google, et non son aspect physique.”
Comme on se plaît à le dire, le premier utilisateur "aveugle" des sites internet est le moteur de recherche Google.
Seul le contenu et la structure du document ont un sens pour Google, et non son aspect physique. Il n'est pas capable
de reconnaître que la balise <p> est censée désigner un titre.
Un document web, structuré sémantiquement, peut être exploité bien plus facilement et mieux indexé par des moteurs
de recherche. Cela facilite leur interprétation par d'autres supports que les navigateurs graphiques, tels que les
moteurs de recherche, les plages braille, les navigateurs textuels, les PDA, etc.
R.G. : Tout est toujours une question d'objectif et de cible : un site avec une taille
fixée à 800 pixels de large aura du mal à s'afficher correctement sur un PDA ou d'autres supports. Il ne faut pas
oublier que le but du Web n'est pas de se limiter au seul média de l'écran d'ordinateur.
Un site "fluide", c'est à dire dont la taille s'adapte à la largeur du support d'affichage, a un premier avantage
indéniable : quelle que soit la résolution de l'écran, le site web utilisera toujours harmonieusement l'espace
alloué. Cela nécessite bien évidemment une réflexion en amont sur la structure des données à présenter.
Cependant, il me semble nécessaire de mettre un petit bémol à la "fluidité" en ce qui concerne la mise en page d'un
contenu textuel : un texte qui occupe toute la largeur d'un écran de très grande résolution n'est pas très
agréable à lire du fait de la longueur des lignes.
A noter que les sites fluides ne sont pas réservés aux mises en page CSS : il est tout à fait possible, en
tableaux de réaliser des mises en page fluides, simplement en choisissant des unités relatives comme le % ou les "em".
“XHTML 2 sera véritablement basé sur XML, donc beaucoup plus large et ainsi pas seulement réservé aux seuls sites web.”
R.G. : A l'heure actuelle, XHTML (version 1) n'est rien d'autre qu'une reformulation,
un peu plus propre dirons-nous, du HTML 4.01 laissé à l'abandon. A part imposer une rigueur supplémentaire,
la version actuelle de XHTML ne change rien à ce qui existait déjà en HTML.
XHTML 2 impliquera beaucoup plus de changements. Il sera véritablement basé sur XML, donc beaucoup plus large
et ainsi pas seulement réservé aux seuls sites web.
Conçu sous forme de modules, XHTML 2 permettra aux développeurs web de piocher les différents
outils dont ils auront besoin. En fait, chaque document sera construit sur un modèle (doctype) différent des autres,
intégrant les modules XHTML nécessaires (XFrames pour les cadres, XForms pour les formulaires, etc.).
Au final, plutôt que d'avoir un langage très lourd et complet, on aura un langage composé d'une base commune
simple sur laquelle se grefferont des modules.
Pour finir, XHTML 2 améliorera le vieux fond de HTML 4.01 : disparition d'éléments inutiles, apparition
de nouveaux éléments (<section>, <h> par exemple), etc.
R.G. : Sans être devin, on peut raisonnablement penser que la réponse est « oui, plus ou moins ».
Tout simplement parce que la montée en puissance des navigateurs alternatifs comme Mozilla Firefox, très
respectueux des standards et qui représentent 10 à 20% du marché actuel, s'accompagne d'une prise de conscience
que le Web ne se limite pas qu'à Internet Explorer.
La concurrence des navigateurs fait qu'un site « optimisé pour IE » n'est actuellement plus viable et que les
nombreux bugs d'affichage de ce navigateur (dus à son vieil âge) posent de réels problèmes aux développeurs web.
Conscient de ces problèmes, Microsoft apportera, si l'on en croit les informations émises sur le blog officiel
de la société, de nombreuses retouches dans le sens de la conformité aux standards.
Bien sûr, on se doute que l'on n'atteindra pas la perfection, mais si Microsoft veut récupérer son marché, c'est
un point qu'il ne pourra pas négliger. N'oublions pas non plus que Microsoft fait partie des sociétés membres du
consortium W3C (sic).
Propos recueillis par Laetitia Maraninchi.