Jan 19 2009

Questions pour un référenceur :-)

questionsConnaissez-vous parfaitement  les moteurs de recherche ?

Oui ? Vraiment, vraiment ? :-)

Alors voici 8 petites questions pièges.

Allez c’est parti ! Je suis, je suis….

1 – La société éditrice de ce moteur de recherche devient rentable qu’à partir de 2002 ?

2 – Ce portail web fut lancé en juillet 1998 ?

3 – Le site A9.com utilise ce moteur de recherche ?

4 – Le groupe Roda fut l’un des 1ers investisseurs à croire en ce moteur de recherche ?

5 – Un moteur de recherche initialement baptisé BackRub ?…

6 – Ce moteur fut le 1er moteur de recherche multilingue ?

7 – Ce moteur de recherche a été racheté par Lycos en 1998 ?

8 – Je fus le site web le plus visité en 2004 ?

Donc 8 moteurs de recherche différents à trouver.

Alors , pas évident sur le coup d’avoir toutes les réponses !

J’attends vos réponses en commentaires (1 backlink  à gagner si votre site n’est pas hors la loi et politiquement correct)

Je vous donnerai les réponses vendredi 23 janvier 2009 ! d’ici là bonne recherche et bon surf !


Déc 3 2008

Référencement naturel, pourtant on m’avait dit…

Lancé sur un ton humoristique et qui a fait et fait encore un sacré buzz sur la toile depuis plusieurs mois, cette fenêtre sur le référencement (http://www.referencement-magie.com) aujourd’hui  me fait beaucoup moins sourire à cause des échos que j’ai à droite et à gauche sur des sites spécialisés référencement ou autres forums, blogs…

Et si le malaise était plus profond ?

Impliqué dans le monde du référencement depuis plusieurs années, ces affirmations, je les entends, les connais, mais depuis quelques semaines ces sons de cloche sont de plus en plus réguliers…

– On m’avait dit « Mon site 1er sur Google sur tout et n’importe quoi »…

– On m’avait dit « des visiteurs comme si il en pleuvait »…

– On m’avait dit « Mon site 1er durablement sous 48h »…

Alors phénomène du à la crise ?

Prestation mal vendue, trop bien vendue ?

Un tout je pense…

Quelques sources intéressantes  :

referencement et charlatan (ecommercial.fr)

l’évangélisation du web… (antoineleroux.fr)

zero-astuce-referencement (Axe-net.fr)

Personnellement, je crois encore dur comme fer dans le référencement. La recherche universelle de Google, l’évolution du web, nous demandent toujours plus d’implication, de veille, d’initiatives, de prises de risque, mais c’est ça être référenceur et c’est ce qui me plait.

Je sais bien qu’un commercial et là pour vendre et que chacun doit faire son business.

Je suis conscient que c’est pas en disant à un client « Vous aurez les 1ers résultats de nos efforts dans quelques mois et je ne vous garantis pas une 1ère position, ni une 1ère page » que le client va signer chez vous…

Mais je suis persuadé qu’une bonne discussion claire et nette sur ce qu’est une réellement prestation de référencement dans les règles de l’art, avec ses délais, ses contraintes, ses avantages peut éviter un gros clash sur du court, moyen, long terme…

Et au final vous passerez pour un pro et non un margoulin ce qui peut-être bon pour votre image sur le marché.


Nov 26 2008

Sauvé par le cache des moteurs de recherche

Perte de données ? Les moteurs de recherche peuvent vous venir en aide !

Comment ?

Définissons dans un 1er temps ce qu’est une page en cache chez Google, Yahoo !, Live Search. Quelles informations trouvons nous dans la section aide de ces derniers ?

Pour Google :

« Lorsque ce dernier explore le Web, il crée une copie de chaque page examinée et la stocke dans une mémoire cache, ce qui permet de consulter cette copie à tout moment, et en particulier dans le cas où la page originale (ou Internet) serait inaccessible. Lorsque vous cliquez sur le lien « Copie cachée » d’une page Web, Google affiche celle-ci dans l’état où elle se trouvait lors de son indexation la plus récente. Par ailleurs, le contenu caché est celui sur lequel se base Google pour déterminer si une page est pertinente pour vos requêtes. »

Source Google : Pages en cache

Pour Yahoo ! :

« Une page « en cache » est un enregistrement d’une page Web pris par nos robots en parcourant un site. Ils enregistrent une copie des pages Web et la stocke sur nos serveurs. Ces versions en cache sont très utiles si les pages originales du site ne sont pas accessibles (en cas de panne de serveur, par exemple). »

Source Yahoo ! : Pages en cache

Pour Live Search :

Pas de définition dans l’aide de Live Search. Juste quelques indications en haut de page une fois sur la page en cache

« Vous trouverez ci-dessous un aperçu de la page Web telle qu’elle s’affichait sur ….. (la dernière fois que notre robot l’a examinée). Il s’agit de la version de la page utilisée pour classer vos résultats de recherche. Cette page peut avoir changé depuis sa dernière mise en cache. Pour voir ce qui peut avoir changé (sans le surlignage), visitez la page actuelle »

Pour résumer la principale fonction pour l’internaute est de donner accès à une copie d’une page de votre site si ce dernier est en rideau, en maintenance, ou que sais-je encore, bref pas accessible quoi :-). Pour le référenceur l’intérêt peut-être tout autre.

Mais pour revenir au sujet « Sauvé par le cache des moteurs de recherche« , cette fonction m’a été utile suite à une boulette sur mon blog. J’ai effacé, récemment, involontairement, tous les commentaires de mon blog.

Vous allez me dire quel boulet, quel noob celui là ! j’entends déjà d’ici les « et les sauvegardes régulières des données tu connais pas ? ».Si bien sûr, mais ma dernière ne m’a pas permis de récupérer suffisamment de données.

Du coup en me plaçant comme internaute et en faisant une requête pour lister la totalité des pages indexées par les moteurs (site:www.monsite.com sous Google)  j’ai pu récupérer 95% des commentaires en mixant les pages en cache de Google, Yahoo, Live Search.

Tout ça également parce que les moteurs indexent de plus en plus de données et que les mises à jour des pages dans les bases de données des moteurs sont de plus en plus rapides.

Au final les pages en cache, si vous optimisez votre site afin que les moteurs de recherche puisse l’indexer en long en large et en travers, peuvent s’avérer un « backup en dur » non négligeable.

Alors webmasters d’un site perso ou d’entreprise à gros business, un conseil : Éviter de placer la balise

<meta name= »robots » content= »noarchive »>

(qui donne l’ordre de ne pas faire apparaître de version cache de vos pages dans les résultats de moteurs de recherche) sur les pages de votre site, cela pourra peut-être vous sauver la mise si vos sauvegardes ne sont pas assez fraiches (ne vous attendez pas non plus à trouver dans les pages en cache des infos que vous avez publié il y 10 minutes bien que… ).


Nov 18 2008

Les robots, crawlers des moteurs ne respectent plus rien…

C’est bien la question que l’on peut se poser aujourd’hui…

La balise meta robots  (<meta name= »robots » content= »… » />) qui a pour vocation de dire en théorie ce que doivent faire les robots des moteurs de recherche en arrivant sur une page semble ignorée.

En effet certains webmasters ont noté que le robot de Live Search (MSN) visitait ces pages et permettait l’indexation de ces dernières malgré que cette balise <meta name= »robots » content= »noindex » /> lui donne l’ordre inverse.

+ d’infos sur le blog Oseox Live ne respect pas le noindex

Même Google reconnaît avoir des ratés à ce niveau (Faute avouée, à demi pardonnée) .

+  d’infos ici : Balises meta pour bloquer…

Dans l’index de Google il ne serait donc pas rare de voir certaines de ces pages indexées…

Et du coté de Yahoo ! ? aucun accident d’indexation ne semble avoir été recensé pour le moment (du moins mes recherches n’ont abouti à rien à ce sujet)

Que faut-il faire alors pour bien se couvrir, pour préserver un contenu que l’on aimerait voir apparaître à un moment précis et non pas quand les moteurs de recherche le décident ? (non mais, on n’est plus chez soi)

Doublez votre « interdiction » en précisant cela dans un fichier robots.txt placé à la racine de votre site. Deux protections valent mieux qu’une.

+ d’infos ici :Bien construire son fichier robots.txt

Si vous devez absolument mettre ces pages en ligne :

– Ne pas lier ces pages à votre site (pages orphelines) et ne pas faire de liens (d’autres sites) vers elles.

– Mettre un password pour parer à la visite d’un internaute perdu sur le web qui tomberait malencontreusement sur ces pages.

– Enfin, la meilleure des parades à mon avis, c’est de garder vos pages en local le temps qu’elles soient finalisées.

Un retour d’expérience à ce sujet ? n’hésitez pas à nous laisser un commentaire.


Nov 10 2008

Bien construire son fichier robots.txt

Le fichier robots.txt est un fichier au format texte, placé à la racine d’un site web

Interrogé par les robots des moteurs de recherche, il leur donne les instructions à faire ou ne pas faire sur votre site web.

Il est donc important de bien guider les robots pour qu’ils visitent les pages que vous les autorisez à voir, et qu’ils n’aillent pas voir les pages que seul vous voulez voir.

Pour autoriser les robots des moteurs de recherche à indexer votre site :

Insérer ces 2 lignes dans votre fichier robots.txt :

User-agent: *
Disallow:

User-agent: * signifie que vous donnez l’accès à tous les robots des moteurs de recherche.

Disallow: indique les pages, repertoire à bloquer. Ici rien est à bloquer comme rien est spécifié.

Un fichier robots.txt vide ou inexistant aura une conséquence identique.

Pour interdire totalement ou partiellement l’accès à votre site web :

Interdire à tous les robots de visiter votre site :

Insérer ces 2 lignes :

User-agent: *
Disallow: /

Interdire aux robots de visiter une page :

User-agent: *
Disallow: toto.html

Interdire aux robots de visiter le contenu d’un répertoire :

User-agent: *
Disallow: /perso

Pour interdire à certains et autoriser à d’autres :

User-agent: *
Disallow: /

User-agent: googlebot
Disallow:

Dans ce cas le robot de Google à tous les droits de visite sur votre site et les autres ne peuvent rien voir.

Localisation du fichier sitemap.xml :

Pour faire connaître la localisation de votre fichier sitemap vous pouvez rajouter cette ligne dans votre fichier robots.txt :

site: http://www.votresite.com/sitemap.xml

+ d’infos sur le fichier sitemap.xml ici

Si vous ne voulez pas vous prendre la tête avec ce fichier important ou avait peur de vous louper,  vous pouvez utiliser des générateurs de robots.txt en ligne. En voici une petite liste :

http://outils.enaty.com/outils/generateur-robots.php

http://www.mcanerin.com/en/search-engine/robots-txt.asp

http://www.seochat.com/seo-tools/robots-generator/

et bien d’autres…

Même Google propose un outil de génération de robots.txt via GWT (https://www.google.com/webmasters/tools/)

Pour finir, vous pouvez doubler vos interdictions, par le biais de la balise <meta name= »robots » content= »noindex, nofollow »> par exemple dans les pages que vous ne souhaitez pas voir apparaitre.


Oct 31 2008

Google Halloween Update. Halloween pénalité ?!

halloween-logo-google

 

 

 

 

Un vent de panique souffle en ce jour d’Halloween ! tremblez, tremblez webmasters…

Sur de nombreux forums spécialisés « référencement » les discussions vont bon train !

On peut voir certains webmasters s’estomaquer :

« Gros chahut aujourd’hui »

« Google Dance Oct/Nov 2008 »

« gros changements !!! »

« mon site a perdu plusieurs positions sur la premiére page …. »

« Qu’est ce qui se passe ???? Je panique grave »

C’est la fin du monde où quoi ???

Qui a encore trop voulu faire mumuse avec Google ? Bcp mais personne ne l’avoue…

A vouloir trop en faire, trop rapidement ?, de façon peut-être trop flagrante ? la sanction tombe…

Ces changements, ces mises à jour interviennent pourtant régulièrement et nombreux devraient être les webmasters avertis maintenant…

Mais bon, le malheur des uns (perte de positions) va faire le bonheur des autres (gain de positions) !!!

Si vous aussi vous êtes touchés par ce phénomène ??? ou pas :-), vous pouvez suivre les débats du moment ici :

Fourms Fr :

http://www.seosphere.com/forum/index.php?showtopic=6812

http://www.webrankinfo.com/forums/viewtopic_101688.htm

http://www.webmaster-hub.com/index.php?showtopic=43927

Forums En :

http://forums.seochat.com/google-optimization-7/just-dramatically-dropped-in-google-no-idea-219972.html

http://forums.seochat.com/google-optimization-7/google-halloween-update-220027.html

Allez une pointe d’humour pour finir.

Le fichier robots.txt de Google affiche entre autres en ce jour d’halloween :

User-agent: zombies
Disallow: /brains

Oct 16 2008

Sondage : Pour votre référencement, Pour ou Contre les annuaires ?

Depuis quelques semaines, un petit débat c’est renforcé sur certains blogs (S.Billard, OSEOX,…) dédiés au référencement.

Le Débat ? Une nouvelle fois, l’utilité, le bénéfice d’inscrire son site web dans des annuaires.

Google s’est exprimé à ce sujet sur son site (Webmaster Guidelines).

Alors ne faites pas les timides, vous aussi, vous avez droit à la parole !

En tant que webmaster,

Soumettez vous votre site dans les annuaires ?

View Results

Chargement ... Chargement ...

N’hésitez pas à laisser des commentaires pour étoffer votre réponse :mrgreen:


Oct 11 2008

Les codes d’erreur à la loupe pour un positionnement pérenne

En tant que webmaster, vous pouvez être confronté à un moment ou un autre, aux codes d’erreur 404, 302, 403, 500.

Autant alors savoir interpréter ces erreurs, pour pouvoir les corriger, car certaines peuvent être préjudiciable à votre site, à votre référencement si vous les laissez perdurer.

Erreur 404 :  Cette erreur survient lorsque la page appelée n’existe pas ou plus.

C’est l’erreur classique, qui peut survenir, lorsque vous supprimez une page, que vous renommez une page sans changer le lien interne dans votre site, ou encore quand votre url rewriting que vous avez mis en place fonctionne mal.

Cette erreur est préjudiciable à votre référencement, votre positionnement si vous n’appliquait pas de correctif rapidement. En effet un robot (bot) d’un moteur de recherche ne trouvant plus votre page la fera « disparaitre ».

-> Solutions :

Pour trouver et  corriger cette erreur, vous pouvez utiliser un logiciel comme Xenu’s Link Sleuth (gratuit) qui vous indiquera où se trouve l’erreur.

Pour éviter de perdre des visiteurs, vous pouvez mettre également en place une page d’erreur 404 personnalisée qui permettra aux visiteurs qui arriveraient sur une page en erreur de revenir sur votre site.

Google propose  par le biais de Google Webmaster Tools une page d’erreur personnalisée.

Pour mettre une page d’erreur 404 en place, vous devrez créer 2 fichiers. Une page 404 (ici erreur_404.php) ainsi qu’1 fichier .htaccess (à placer à la racine de votre site).

Dans ce fichier devra figurer la ligne suivante :

ErrorDocument 404 /erreur_404.php

 

Redirection 302 : Redirection temporaire

Celle-ci « se matérialise » dans le navigateur par un changement du nom de la page ou du nom de domaine.

Google et les autres moteurs de recherche n’apprécient guère cette [shal]redirection[/shal]. Elle est donc à bannir !

-> Solutions :

Préférer une redirection 301 : Redirection permanente

Cette redirection indique aux moteurs de recherche qu’une page a changé et qu’elle se trouve définitivement à une autre adresse.

Pour vérifier vos redirections,

vous pouvez utiliser un petit programme sympa mis en place par le site webmater-hub.com http://www.webmaster-hub.com/outils/

le logiciel Xenu’s Link Sleuth (gratuit) qui permet pour chaque page de voir le code d’erreur retourné,

l’extension Firefox Live http headers qui affiche de façon très détaillée les entêtes HTTP transmis pendant votre surf…

 

Erreur 403 : « acces denied » ou accès interdit

Même conséquence que l’erreur 404, si les moteurs de recherche ne voient plus le contenu de votre site (pages) sur une durée prolongée, c’est la [shal]désindexation[/shal] assurée.

-> Solutions :

Vérifier vos dernières modifications,

contacter votre hébergeur rapidement…

 

Erreur 500 :

Un problème serveur ou un mauvais réglage de votre firewall peuvent empêcher complètement les robots des moteurs de recherche d’accéder à un site.

Les conséquences sur votre référencement ? Si l’erreur perdure, désindexation des pages du site.

-> Solutions :

Vérifier vos scripts,

contacter votre hébergeur

prenez un hébergeur fiable.

Afin de faire avancer chimilimili, n’hésitez pas à rebondir sur cet article et apporter votre vision :-)


Sep 29 2008

Recherche de mots dans les vidéos, c’est possible avec Gaudi

Et qui c’est qui s’y colle une nouvelle fois ??? Et oui l’incorrigible et inévitable Google

C’est encore dans les laboratoires de Google mais cette application, comme « tout » ce que sort Google, risque  prochainement de révolutionner la recherche… de sons sur le Net.

Gaudi, pour Google Audio Indexing pourra détecter et reconnaître des sons, des mots…

Pour l’instant , seul YouTube bénéficie de ce système et encore, sur quelques vidéos traitant uniquement de politique.

Cette recherche se matérialise  sous la forme de petits repères jaunes dans la timeline de la vidéo proposée. Un survol de ce repère affiche également la phrase entière dans laquelle le mot est proposé.

Rien de mieux que de faire un petit test pour s’en rendre mieux compte :

Barack Obama in Paris

Vous pouvez faire le test sur d’autres politiciens :-)

A quand le 1er blacklistage pour une densité trop forte , un texte caché (subliminal) dans un discours ;-)


Juin 6 2008

DMOZ (Open Directory Project), célèbre annuaire repris par Google fête ses 10 ans !

Annuaire DMOZ

L’Open Directory Project le plus grand et le plus complet des répertoires du Web édité par des êtres humains fête ses 10 ans !!!

“DMOZ”, “Open Directory Project (ODP)” ??? C’est qui ? c’est quoi ???

L’ODP est aussi connu sous le nom de DMOZ, un raccourci pour Directory Mozilla. Ce nom reflète l’association proche de l’annuaire avec le projet Mozilla un navigateur Open Source soutenu lui aussi par Netscape. L’ODP a été développé dans l’esprit de l’Open Source où développement et maintenance sont réalisés par des citoyens du Net, et dont le résultat est librement consultable et utilisable par tous les autres citoyens du Net. (Source dmoz.org)

L’Open Directory Project (ODP) est un annuaire international géré par des milliers de bénévoles.

L’Open Directory est la plus diffusée des bases de données sur le contenu du Web.

L’Open Directory fournit leurs répertoires aux plus grands et aux plus populaires des moteurs de recherche et des portails dont Google (http://www.google.com/dirhp). Les sites sont classés selon leur PageRank à la place du traditionnel ordre alphabétique.

L’ODP est 100% gratuit. L’ajout d’un nouveau site ou l’utilisation des données ne coûte rien.

Un “petit” annuaire donc ;-) qui affiche un Petit PR8 aujourd’hui, avec des liens en dur ce qui peut être très très intéressant pour votre référencement !!!

Suivez le lien pour vous rendre sur l’OPEN DIRECTORY (DMOZ)