Optimisation SEO d'un site Web - Partie 1

Votre site est en ligne et vous avez tout fait pour optimiser les éléments techniques.

Mais avez-vous pensé à rendre le contenu digeste pour les moteurs de recherche afin d'obtenir le meilleur référencement possible ?

Dans cet article, j'aborde l'optimisation du contenu afin de le rendre plus facilement identifiable par les moteurs de recherches.

Aujourd'hui, on estime qu'environ 15% du traffic d'un site est issu de liens de bannières ou de sites référents, 80% suite à une recherche sur un moteur et 5% par la connaissance de l'internaute (recommandations d'amis par exemple).
Avec de telles proportions, il est donc important d'accorder un minimum d'efforts au bon référencement de son site et du contenu produit.

Pour cela, deux options fondamentales : négocier une action de référencement par une société spécialisée et/ou travailler, dès le départ, le référencement naturel.
Dans les 2 cas, un travail spécifique de Search Engine Optimization est réalisé.

Dans cet article, j'aborde les clés essentielles à prendre en considération.

Cible du SEO

Après une petite recherche, il apparait que Google est le moteur de recherche préféré des internautes, avec plus de 80% d'utilisatation (cf. OWL Stat par exemple).


Utilisation des moteurs de recherche - Google : 80%


 

Nous allons donc nous focaliser sur les éléments à prendre en considération pour ce moteur de recherche, en gageant qu'un excellent référencement Google conduira, de fait :

  • à un tout aussi bon résultat pour les autres moteurs,
  • à une identification pour la plus grande partie des internautes.

Le fichier robots.txt

Le fichier robots.txt, placé à la racine de votre site, décrit le comportement que doivent adopter les robots d'indexation.

La stratégie à mettre en place est de permettre une indexation de tout le contenu du site (commande Allow), en prenant soin d'exclure les répertoires d'administration ou personnel (commande Disallow), pour tous les agents (commande User-agent) et en précisant la présence d'un fichier Sitemap.xml, décrit ultérieurement, par la commande éponyme.

                                    
                                        User-agent: *
                                        
                                        Allow: /
                                        
                                        Sitemap: http://www.monsite.com/sitemap.xml
                                        
                                        Disallow: /admin/
                                        Disallow: /css/
                                        Disallow: /errors/
                                        Disallow: /include/
                                        Disallow: /logs/
                                        Disallow: /scripts/
                                    
                                

Dans l'exemple ci-dessus :

  • les directives sont adressées à tous les agents grace au caractère générique *,
  • l'intégralité du site est autorisé, par la commande Allow appliquée depuis la racine du site /,
  • la localisation du fichier Sitemap.xml est précisée, par son url absolue,
  • et enfin, le parcours des répertoires « techniques » est interdite.

Cet exemple est applicable, à mon avis, dans plus de 90% des situations avec des modifications mineures.

Si vous souhaitez toutefois en savoir plus sur la syntaxe du fichier robots.txt, ou peaufiner vos propres paramétrages, vous pouvez consulter le site robots-txt.com/.

Le fichier sitemap.xml

Le fichier sitemap.xml, placé à la racine de votre site, liste normalement toutes les pages du site (a minima celles que vous estimez importantes) et permet ainsi au moteur de recherche d'accéder plus facilement au contenu, même apparemment caché.

En plaçant ce fichier à la racine de votre site, vous avez la garantie que toutes les pages ou fichiers référencés seront parcourues pour une indexation.

La structure de base du fichier est la suivante

                                    
                                        <?xml version="1.0" encoding="UTF-8"?> 
                                        <urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
                    
                                            <url> 
                                            ...
                                            </url>
                                             
                                            <url> 
                                            ...
                                            </url> 
                                        
                                        </urlset>
                                    
                                

L'identification des pages proprement dites est réalisé dans les blocs <url>...</url> qu'il est nécessaire de répéter autant de fois que nécessaire (i.e. il en faut un pour chaque page ! ).

Pour décrire une page, dans un bloc <url>...</url>, 1 balise obligatoire :

<loc>
correspond à l'url absolue de la page

Vous pouvez aussi enrichir chaque bloc de description par 3 balises optionnelles :


<lastmod>
indique la date de la dernière modification de la page, codée au format AAAA-MM-JJThh:mmTZD, en considérant l'heure comme une information facultative.
<changefreq>
pour la fréquence de mise à jour, codée par 7 valeurs : yearly, monthly, weekly, daily, hourly, always et never
<priority>
pour l'importance relative de la page par rapport aux autres, codée par une valeur numérique (séparateur numérique .) comprise entre 0.1 et 1 pour l'importance maximale.
Par défaut, la valeur attribuée est 0.5.
Bonne pratique

Je vous recommande de toujours attribuer une importance plus élevée à votre page d'accueil.

À titre d'exemple, vous trouverez ci-dessous une structure de fichier sitemap.xml que vous pourrez ajuster suivant vos besoins.

                                    
                                        <?xml version="1.0" encoding="UTF-8"?> 
                                        <urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
                    
                                            <url> 
                                                <loc>http://www.monsite.com/</loc>
                                                <lastmod>2012-11-04</lastmod>
                                                <changefreq>always</changefreq>
                                                <priority>0.8</priority>
                                            </url>
                                             
                                            <url> 
                                                <loc>http://www.monsite.com/premiere-url.html</loc>
                                                <lastmod>2012-12-27</lastmod>
                                                <changefreq>weekly</changefreq>
                                            </url> 
                                             
                                            <url> 
                                                <loc>http://www.monsite.com/deuxieme-url.html</loc>
                                                <lastmod>2012-12-27</lastmod>
                                                <changefreq>monthly</changefreq>
                                            </url> 
                                             
                                            <url> 
                                                <loc>http://www.monsite.com/repertoire/troisieme-url.html</loc>
                                                <changefreq>yearly</changefreq>
                                                <priority>0.2</priority>
                                            </url> 
                                        
                                        </urlset>
                                    
                                

Pour en savoir plus sur la syntaxe du fichier sitemap.xml et peaufiner vos propres paramétrages, vous pouvez consulter le site sitemaps.org.

Conclusion

En vous assurant de la présence des deux fichiers (correctement renseignés) robots.txt et sitemap.xml vous êtes certain d'avoir donné la carte de votre site aux agents des moteurs de recherche (bots) qui se chargeront alors de parcourir (crawler) l'intégralité de votre contenu pour en effectuer l'indexation.

Maintenant, nous pouvons chercher à optimiser le contenu en lui-même afin d'obtenir le meilleur référencement naturel possible. La suite dans la deuxième partie de l'article !