Laurent Bourrelly

SEO Rockstar

mardi, juillet 27, 2004

C'est fini pour l'astuce des pages "onmouseover".

L'internaute observe que certaines pages utilisant des pages satellites remplies de mots clefs avec une redirection de type Javascript avec la commande "OnMouseOver" ne figurent plus dans l'index.

Voici ce que dit GoogleGuy :
"Je sais que nous avons récemment nettoyé l'index de pages coupables de spam. Si vous avez payé un référenceur qui vous a convaincu d'utiliser des "onMouseOver" en Javascript sur les balises du Body de vos pages, soyez sûrs d'avoir lu http://www.google.com/webmasters/seo.html et http://www.google.com/webmasters/guidelines.html#quality avant de contacter Google. En premier lieu, soyez certains d'avoir retiré toutes les pages satellites de votre site. Il faut être sûr que toutes les pages bidons soient parties avant d'écrire, puis vous pouvez envoyer un email à webmaster@google.com avec comme sujet "reinclusion request" en nous donnant le plus de détails possible sur votre situation.
Je pense qu'il y a un référenceur qui a convaincu ses clients d'utiliser toutes les techniques de redirection Javascript, pages satellites et sites miroirs qui lient à d'autres sites et les sites de clients. Le résultat est que tous les sites de clients sont désormais estampillés comme spammeurs.
Encore une fois, soyez sûrs d'avoir enlevé toutes les pages satellites ou les liens de spam qu'un référenceur vous a convaincu de mettre sur votre site avant d'écrire à Google avant une reinclusion. Cela va être néfaste pour votre site si nous vérifions et que des pages de spam figurent encore sur votre site."

dimanche, juillet 18, 2004

Site Flavored Search

Le post de départ annonce le nouveau service de Google. GoogleGuy répond à un commentaire qui demande pourquoi un site voudrait diriger le visisteur vers d'autres sites semblables.

GoogleGuy répond ainsi :
"Enormément de sites qui ne cherchent pas à faire un profit, comme les sites d'éducation ou d'information, peuvent considérer comme une plus-value d'avoir une recherche personalisée sur leur thème. Les visiteurs apprécieront certainement aussi.
Je peux comprendre la catégorie des "ne pas envoyer les visiteurs sur d'autres sites que les miens", mais je pense que beaucoup de chercheurs utiliseront, évalueront et ajouterons aux favoris des sitres qui proposent un tel service. J'ajouterais seulement qu'il faut l'essayer et le tester pour voir et si vous avez vraiment peur que le service dirige le visteur vers la concurrence, enlevez le. Certains Webmasters trouveront que cela profite à l'expérience de leurs visiteurs et le garderont.

mardi, juillet 13, 2004

Backlink depuis une page de PR3

L'internaute demande si les backlinks ne comptent qu'à partir de PR4.

Réponse de GoogleGuy :
"Je crois que lors d'une récente conférence à Londres de Search Engine Strategies, DaveN à suggèré à un représentant de Google s'il ne fallait pas montrer une échantillon au hasard de backlinks au lieu des meilleurs. Cela permettrait aux Webmasters de petits sites de voir leurs backlinks, même s'ils ne possédent pas de backlinks à fort PageRank.
Je sais que le représentant de Google a pensé que c'était une très bonne idée et que cela aiderait les petits sites sans backlinks à fort PageRank. Si vous voyez que la commande link: commence à retourner un plus grand spectre de backlinks, vous pouvez remercier WebmasterWorld pour la suggestion."

Est-ce que Google permet la vente de PageRank ?

Question brulante sur le sujet de la vente de liens par certains sites. Est-ce un interdit ?

Réponse catégorique de GoogleGuy :
"Je pense que nos conseils aux webmasters donnent une bonne réponse à cette question http://www.google.com/webmasters/guidelines.html#quality
En particulier :
Ne participez pas à des programmes d'échanges de liens mis en place pour améliorer votre positionnement ou votre PageRank. En particulier, évitez les liens depuis des Spammeurs ou "mauvais voisinage" car votre classement pourrait être affecté par ces liens.
C'est toujours vrai.

Profondeur des niveaux ?

Il s'agit de savoir sur combien de niveaux Google peut lire un site. L'internaute annonce 4 niveaux.

GoogleGuy confirme :
"Oui, c'est une bonne réponse. Un plan du site est un bon moyen de mettre en valeur des parties de votre site qui seraient normalement cachées à plusieurs niveaux de profondeur."

lundi, juillet 05, 2004

Est-ce que les redirections sont mauvaises pour Google ?

Il s'agit de savoir si Google va pénaliser des redirections de sous-domaines ou domaines vers 1 seul site.

Une réponse claire de GoogleGuy :
Si les pages ont disparu, il est préférable de faire une redirection permanente de type 301. Les redirections qui posent problème sont les pages qui apparaissent dans un outil de recherche et qui redirigent le visiteur vers une autre page lors d'une visite. C'est ma définition d'une redirection malicieuse. Par contre, si les pages ont vraiment disparu, il est normal de mettre une redirection permanente en place pour que les visiteurs et les outils de recherche puissent aller vers les nouvelles pages.

jeudi, juin 24, 2004

Enlever une URL de l'index de Google

L'internaute cherche à désindexer une URL le plus rapidement possible. Il a essayé Google URL Console mais ça ne marche pas.


GoogleGuy donne son avis :
"As-tu eu un message d'erreur ou il n'y avait aucun effet ? Si un site est hors service, cela peut nous prendre quelques jours pour vérifier que ce site est vraiment parti. L'autre possibilité est de permettre de crawler cette page, mais d'utiliser la meta "noindex". Je pense que cela nous empêchera de faire référence à cette page (tu peux tester pour voir si ça marche, mais je pense que c'est bon)."

dimanche, juin 20, 2004

Comment la localisation géographique influe sur le référencement ?

Il s'agit de la localisation géographique de l'hébergement du site. Est-ce important d'être hébergé dans le pays que l'on cible ?

GoogleGuy répond ainsi :
"La seule façon que l'on a de savoir si un .com, par exemple, est vraiment pertinent pour une recherche en UK est de regarder si ce .com est hébergé en UK"

Comment indéxer un contenu très large ?

L'internaut posséde un site contenant plus de 1400 histoires qu'il aimerait toutes indéxer. Comment faire ?

GoogleGuy rebondit sur la réponse d'un autre internaute :
Oui, les plans de site sont un allié dans ce cas. Quelqu'un m'a déjà posé la question il y a un temps et j'ai recommandé de faire un découpage chronologique. Les histoires de 2004, 2003, 2002,..., 2000
Puis sur ces pages, les histoires de Janvier à Décembre. Ainsi, sur ces pages, tu peux lier toutes les histoires du moi en question. Si tu as 1400 histoires, tu dois pouvoir combiner les histoires par mois et année.
Par exemple :
- Histoires depuis Janvier 2000
- Histoires depuis Février 2000
...
- Histoires depuis Avril 2004
Ainsi, sur chaque page, tu peux lier les histoires de chaque mois.
Il y a différentes façons de développer un plan du site (ordre alphabétique, par sujet, etc...), donc je regarderais cela du point de vue de l'utilisateur, mais aussi d'une façon linéaire (tu ne veux pas que ta carte du site soit de 7 niveaux de profondeur... 1-3 niveaux est le mieux), tout en gardant les pages sous la barre des 100Ko.

Pénalisé par Google à cause de liens à des sites interdits

L'internaute observe que les liens qu'il fait vers d'autres ne sont pas pris en compte. La cause possible est des liens vers des sites qui sont blacklistés par Google.

La réponse de GoogleGuy :


Si tu penses être lié à des sites spammeurs ou blacklistés et que tu as arrêté, tu peux écrire à webmaster [at] google.com avec comme sujet "reinclusion request" en décrivant la situation. Je jetterais un coup d'oeil.

Question d' anchort text

Il s'agit ici de déterminer si l'anchor text (le texte qui figure sur un lien) est déterminant sur la totalité du texte ou si on peut être positionné sur une partie du texte seulement. Exemple : le keyword cible est "ce produit", mais l'anchor texte des liens entrants est "ce produit online". Est-ce que le positionnement sur "ce produit" va être fort ?

Voici ce que dit GoogleGuy :
"Cibler une diversité de phrases courtes comme cible est mieux pour ton commerce sur le long terme." Quand on regarde ses logs, on conclue rapidement qu'il est important de cibler d'autres phrases et pas seulement la phrase du "Saint Graal".

dimanche, juin 13, 2004

Liens sortants... sont ils nécessaires ?

Question pertinente à propos des liens sortants. Le test conduit par l'internaute concerne le fait que son site se trouve mieux positionné depuis qu'il a ajouté sur sa page des sites au contenu similaire, notamment au niveau de la balise "title" et des META "keywords" et "description".

GoogleGuy nous donne son avis :
Les référenceurs ont l'air de débattre énormément sur ce sujet. Même au sein des référenceurs les plus pragmatiques, certains pensent qu'il est mieux de planquer sont PageRank. D'autres suggèrent que c'est mieux de "ressembler à un vrai" site, en notant que les "vrais" sites ont souvent des liens sortants. Je pencherais plutôt pour la dernière solution. Si un référenceur essaye de recréer les paramètres de liens/contenu d'un "vrai" site, il est vraisemblable qu'il obtienne au final un vrai site utile. Je ne plaisante pas vraiment en disant ça, car la règle d'or que j'appliquerais impliquerait que les visiteurs de ton site voudrait probablement connaître d'autres sources similaires. Le principe final voulant qu'un site que les visiteurs considèrent comme utile, soit revisité et recommandé à leurs amis.
Un exemple rapide : J'ai récemment lu un article sur un programme appelé KCeasy on Slashdot. J'ai regardé leur site kceasy.com et noté des liens vers giFT (le protocol) et d'autres clients de giFT. Il s'agit d'un site non-commercial qui essaye de faire passer l'info au sujet de leur application et donne donne des détails sur les autres options. Ce site en particulier serait bien moins utile si l'auteur essayait de planquer le PageRank ou de garder le visiteur sur son site. A la place, les liens sont utiles autant que le site lui-même. C'est un bon site; le genre de site qui reste dans l'esprit d'un visiteur intéressé.
C'est mon avis personnel, mais je suis de l'école "construis un bon site et le positionnement suivra". D'autres personnes appartiennent à l'école des "travaille le positionnement d'abord et ensuite développe ton site". Je laisse la parole à la 2ème école pour donner leur avis.

Etre indexé dans Google AU

L'internaut demande pourquoi un de ses sites est très bien positionné dans google.com, mais n'est pas indexé du tout dans google.com.au
Comme le site est voué au commerce en Australie, cela peut-être préjudiciable.

La réponse :
Ton meilleur choix serait d'avoir un nom de domaine en .com.au . En faisant cela, tu serais sûr que les outils de recherche inclueraient ton site dans les recherches liées à l'Australie. Une autre astuce serait de prendre un hebérgement en Australie, aidant ainsi à ressortir dans les recherches spécifiques à l'Australie.

mercredi, juin 09, 2004

Changement de php vers aspx ... Comment être sûr de rester indexé.

L'internaute se demande quel est le meilleur moyen de rester indexé, alors qu'il doit rediriger ses visiteurs de pages en .php vers de pages en .aspx

La réponse de GoogleGuy :
Je pense que c'est OK d'utiliser au choix les extensions php ou aspx. Note que les extensions [fichier:aspxblabla] trouvent un grand nombre d'exemples de fichiers .aspx que nous crawlons sans problème. Le post précédent donne de bons conseils pour changer les extensions de fichiers. Si beaucoup de liens externes pointent vers vos pages, changer l'extension peut signifier que certains liens pointeront vers des pages inexistantes. Si le site est neuf, cela a moins d'importance.

vendredi, juin 04, 2004

Que veut dire une GoogleToolbar grisée

L'internaute se demande la signification de la barre horizontale du PageRank quand elle est grisée.

GooglGuy explique :
La GoogleToolbar est grisée quand nous ne pouvons pas trouver de PageRank pour ta page. C'est quasiment toujours parce que la page n'a pas été crawlée pendant la prise d'info du PageRank. Normalement, tu dois seulement attendre la prochaine mise à jour de l'aperçu du PageRank, car entre temps nous avons trouvé la page.

Une autre menace pour les Webmasters ?

L'internaute parle d'une nouveauté aperçue dans les résultats de Google qui donne des suggestions de keywords. http://trademark.blog.us/blog/2004/04/22.html

La réponse de GoogleGuy :
C'est une expérimentation qui est en cours depuis un moment. Cela montre les requètes similaires qui peuvent être utiles. Les spéculations qui semblent sponsorisées ne le sont pas, car c'est généré par un algorythme et l'argent ne rentre pas en compte.

Est-ce bien de lier des sites ensemble ?

L'internaute travaille sur un réseau de sites. Il prévoit de faire une section sur chacun, en ajoutant des liens vers ses autres sites.

GoogleGuy répond en 2 temps :
Je conseille de regarder comment cela semblerait pour un visiteur ou un concurrent. Je reste prudent avec les sites neufs + beaucoup de sites + beaucoup de cross-linkage pour être sûr que ça ne fasse pas trop louche si quelqu'un regarde ton site.

Je veux juste ajouter que tu devrais essayer de regarder avec des yeux neufs, comme s'il s'agissait du site de quelqu'un d'autre. Si tu penses que cela reste acceptable pour un éventuel concurrent ou quelqu'un qui remplirait un 'spam report', alors c'est bon pour moi.

caractères "illégaux" dans l'URL... Lesquels utiliser ?

La question tourne autour de la validité des underscores (_) dans une adresses Web.

La réponse de GoogleGuy :
Je me contenterais d'utiliser les points, virgules et tirets. La plupart des gens utilisent les tirets. En prenant un underscore, Google va combiner les 2 mots de chaque côté en un seul mot. Ainsi bla.com/kw1_kw2.html ne sortira pas pour kw1 et kw2. Il faudra chercher sur kw1_kw2 pour faire sortir la page. Les caractères utilisables dans un nom de domaine sont assez restreints : a-z, 0-9, et '-'. Pour les sous-domaines et les chemins d'URLs, tu as un peu plus de fléxibilité, mais je recommande de rester simple, car c'est plus simple pour le moteur et pour l'utilisateur à comprendre. Il est actuellement à l'étude de pouvoir utiliser toutes sortes de caractères dans un nom de domaine (ex:chinois, coréen, japonais), mais c'est un peu hors-sujet et je ne suis pas familier avec l'encodage. En fait, il faut rester simple quand vous le pouvez.

Page en cache : update partiel possible ?

Est-il possible que Google mette en cache seulement une partie des changements sur une page en laissant le contenu ancien par dessous ?

GoogleGuy est dubitatif :
Je pense que c'est très improbable, d'après mes connaissances en crawling et indexing. Les pages sont mises-à-jour automatiquement. Je peux imaginer qu'un coin bizarre d'une page coincé dans de multiples cadres, pourrait laisser un seul cadre lu en oubliant le reste. C'est un cas extrème et je ne pense pas que ça soit le cas ici

jeudi, juin 03, 2004

Pas de date dans les résultats de Google

Question pertinente concernant la date qui figure près de l'URL dans les résultats de Google. Que signifie cette date et faut-il en avoir une ?

Réponse de GooglGuy :
Nous avons un crawl et un refresh quotidien (Fresh Crawl) des millions de pages. Je pense que la date apparaît si :
a) la page est crawlée
b) la date correspond est entre N jours de la date du Crawl, où N est un chiffre comme 2 ou 3.
Ainsi, si nous visitons ta page le 20 Avril, pendant le Fresh Crawl, tu verras une date auprès de l'URL pendant le 20, 21 et 22 Avril. La différence entre le "Deep Crawl" et le "Fresh Crawl" était beaucoup plus significative il y a un an, quand nous lançions un indéxage profond (Deep Crawl)une fois par mois. Au gré des améliorations de Google, le Deep Crawl est devenu beaucoup plus fréquent et le Fresh Crawl beaucoup plus profond. De ce fait, il n'y a pas vraiement de différence notable entre le 2. Ceci dit, je pense que nous affichons une date seulement pendant le Fresh Crawl et sa période de référence.