Accueil > referencement > seo search engine optimization

seo search engine optimization

lundi 13 novembre 2006

optimisation de search Engine
De Wikipedia, l’encyclopédie libre
Saut à : navigation, recherche

L’optimisation de search Engine (SEO) est un sous-ensemble de marketing de search Engine, et traite améliorer le nombre et/ou la qualité de visiteurs à un site Web search Engine (d’aka) « organique » ou « algorithmique » des listes « normales ». La limite SEO peut également se rapporter à des « optimiseurs de search Engine », une industrie des conseillers qui mettent des projets à exécution d’optimisation au nom des clients.

Les moteurs de recherche montrent différents genres de listes à une page de résultats de search Engine (SERP), y compris la publicité payée sous forme de salaire par annonces de clic et listes payées d’inclusion, aussi bien que les listes spécifiques organiques impayées de résultats et de mots-clés de recherche, telles que des histoires de nouvelles, les définitions, les endroits de carte, et les images. SEO est concerné par améliorer le nombre et la position de listes d’un emplacement dans les résultats organiques de recherche.

Les stratégies de SEO changent considérablement, selon l’emplacement spécifique. Largement parlant, SEO peut être adapté vers augmenter, ou toutes les deux, tout le nombre et qualité visiteurs des moteurs de recherche. La qualité d’un visiteur peut être mesurée par combien de fois un visiteur employant un mot-clé spécifique mène à une action désirée de conversion, telle que faire un achat ou demander davantage d’information.

L’optimisation de search Engine est disponible comme service autonome ou comme partie d’une plus grande campagne de vente. Puisque SEO exige souvent faire des changements au code source d’un emplacement, il est souvent le plus efficace une fois incorporé au développement et à la conception initiaux d’un emplacement, menant à l’utilisation du terme « search Engine amical » de décrire les conceptions, les menus, les systèmes de gestion contents et les caddies qui peuvent être optimisés facilement et efficacement.

Une gamme des stratégies et des techniques sont utilisées dans SEO, y compris des changements au code d’un emplacement (visé comme « sur des facteurs de page ») et à obtenir des liens d’autres emplacements (visés comme « outre des facteurs de page »). Ces techniques incluent deux larges catégories : techniques que les moteurs de recherche recommandent en tant qu’élément de la conception de bon, et techniques que les moteurs de recherche n’approuvent pas et n’essayent pas de réduire au minimum l’effet de, désigné sous le nom spamdexing. Quelques commentateurs d’industrie classifient ces méthodes, et les praticiens qui les utilisent, en tant que « le chapeau blanc SEO », ou « chapeau SEO de noir ». [1] L’autre rejet de SEOs la dichotomie noire et blanche de chapeau comme simplification exagérée.

SEO, comme une stratégie de vente, peut souvent produire d’un bon retour. Cependant, car les moteurs de recherche ne sont pas payés pour le trafic ils envoient de la recherche organique, les algorithmes utilisés peuvent et changent, et il y a beaucoup de problèmes qui peuvent poser des problèmes de search Engine quand le rampement ou le rang des pages d’un emplacement, là ne sont aucune garantie de succès, dans le short ou le terme. En raison de ce manque des garanties et de la certitude, SEO est souvent comparé aux relations publiques traditionnelles (P.R.), à PPC annonçant plus près de la publicité traditionnelle.
Table des matières
[hide]

* 1 histoire
o 1.1 premiers moteurs de recherche
o 1.2 Développement des algorithmes plus sophistiqués de rang
* 2 le rapport entre SEO et les moteurs de recherche
* 3 entrant dans les bases de données de moteurs de recherche
* 4 robots de blocage
* 5 « méthodes de chapeau blanc »
* 6 « méthodes de chapeau noir »
* 7 SEO et vente
* 8 questions légales
* 9 références
* 10 voir également
* lien 11 externe

[éditer] histoire

[éditer] de premiers moteurs de recherche

Webmasters et fournisseurs de contenu mobiles ont commencé à optimiser des emplacements pour des moteurs de recherche au milieu des années 90, car les premiers moteurs de recherche cataloguaient le Web tôt.

Au commencement, tout un webmaster requis pour faire était de soumettre un emplacement aux divers moteurs qui courraient des araignées, les programmes qui des « rampements » une page et des magasins les données rassemblées dans une base de données.

Le processus implique une racine de search Engine ou l’araignée téléchargeant une page et la stockant sur les moteurs de recherche possèdent le serveur, où un deuxième programme, connu sous le nom de sélecteur, extrait de diverses informations sur la page, telle que les mots qu’elle contient et où ceux-ci en sont situés, aussi bien que n’importe quel poids pour des mots spécifiques, aussi bien qu’et tout lie la page contient, ce qui est alors placée dans un programmateur pour ramper à une date ultérieure.

Au début, des moteurs de recherche ont été guidés par les webmasters eux-mêmes. Les versions tôt des algorithmes de recherche se sont fondées sur webmaster-ont fourni l’information telle que l’étiquette de méta de mot-clé, ou l’index classe dans des moteurs comme ALIWEB. les Méta-étiquettes ont fourni un guide du contenu de chaque page.

Inévitablement, les webmasters ont commencé à maltraiter des étiquettes de méta, faisant ranger leurs pages pour des recherches non pertinentes. Pour combattre ceci, les moteurs de recherche ont développé des algorithmes plus complexes de rang, tenant compte des facteurs additionnels comprenant :

* Texte dans l’étiquette de titre
* Domain Name
* Annuaires d’URL et noms de dossier
* Étiquettes de HTML : texte de titres, souligné () et fortement souligné (de )
* Fréquence des termes, dans le document et globalement, souvent mal compris et de manière erronée désigné sous le nom de la densité de mot-clé
* Proximité de mot-clé
* Contiguîté de mot-clé
* Ordre de mot-clé
* Attributs d’alt pour des images
* Texte dans des étiquettes de NOFRAMES
* Développement content

Un certain nombre d’attributs dans la source de HTML d’une page ont été souvent manoeuvrés par les fournisseurs de contenu de Web essayant de se ranger bien dans des moteurs de recherche. [2]

En comptant intensivement sur les facteurs qui étaient toujours dans la commande exclusive des webmasters, les moteurs de recherche ont continué à souffrir de l’abus et de la manipulation de rang. Afin de fournir de meilleurs résultats à leurs utilisateurs, les moteurs de recherche ont dû s’adapter pour assurer leur SERPs ont montré les résultats de recherche les plus appropriés, plutôt que les pages inutiles bourrées de nombreux mots-clés par des webmasters sans scrupules à l’aide d’un amorce-et-commutateur leurrent pour montrer les pages Web indépendantes. Ceci a mené à l’élévation d’un nouveau genre de search Engine.

[éditer] développement des algorithmes plus sophistiqués de rang

google a été commencé par deux étudiants de PhD à l’université de Stanford, au Sergey Brin et à la page de Larry, et a apporté un nouveau concept aux pages Web de évaluation. Ce concept, appelé pagerank, a été important pour l’algorithme de google dès le début. [3] pagerank est un algorithme qui pèse l’importance d’une page basée sur les liens entrants. pagerank estime la probabilité qu’une page donnée sera atteinte par un utilisateur de Web qui a aléatoirement surfé le Web, et des liens suivis d’une page à l’autre. En effet, ceci signifie que quelques liens sont plus valables que d’autres, car une plus haute page de pagerank est pour être atteinte par le surfer aléatoire.

L’algorithme de pagerank a prouvé très efficace, et google a commencé à être perçu en tant que servir les résultats de recherche les plus appropriés. Sur le dos du mot fort de la bouche des programmeurs, google est rapidement devenu le search Engine le plus populaire et le plus réussi. pagerank a mesuré un facteur d’au loin-emplacement, google a jugé qu’il serait plus difficile de manoeuvrer que des facteurs de sur-page.

En dépit d’être difficiles au jeu, les webmasters avaient déjà développé des outils et des arrangements de bâtiment de lien pour influencer le search Engine d’Inktomi, et ces méthodes ont prouvé pareillement applicable au jeu pagerank. Beaucoup d’emplacements se sont concentrés sur échanger, acheter, et vendre des liens, souvent sur une échelle massive. Ceci a engendré une industrie en ligne, celle survit à ce jour, focalisé lors de vendre des liens conçus pour améliorer pagerank et popularité de lien, et pour ne pas conduire les visiteurs humains d’emplacement, avec des liens par de plus hautes pages de pagerank se vendant pour la plupart d’argent.

Une procuration pour le pagerank métrique est encore montrée dans le google Toolbar, bien que la valeur montrée soit arrondie pour être un nombre entier, et le toolbar est censé pour être mis à jour moins fréquemment et indépendamment de valeur employée intérieurement par google. De nos jours, la réclamation de google que pagerank est seulement un de plus de 100 « des signaux » ont considéré en pages de rang, et beaucoup SEOs expérimenté recommandent d’ignorer le pagerank montré [4].

google - et d’autres moteurs de recherche -, au cours des années, ont été développés un éventail de facteurs d’au loin-emplacement qu’ils emploient dans leurs algorithmes. L’internet atteignait une vaste population des utilisateurs non techniciens qui ne pouvaient pas souvent employer des techniques de question avançée pour atteindre l’information qu’ils cherchaient et le volume et la complexité fins des données classées étaient énormément différents de celui des jours tôt. Combiné avec des augmentations de capacité de traitement, les moteurs de recherche ont commencé à développer des algorithmes prédictifs, sémantiques, linguistiques et heuristiques. Autour du même temps que le travail cela a mené à google, IBM avait commencé le travail sur le projet intelligent [5], et Jon Kleinberg développait l’algorithme de COUPS.

Comme un search Engine peut employer des centaines de facteurs en rangeant les listes sur son SERPs ; les facteurs eux-mêmes et le poids que chacun porte peuvent changer continuellement, et les algorithmes peuvent différer largement, avec une page Web qui range #1 dans un search Engine particulier rangeant probablement #200 dans un autre search Engine, ou même sur le même search Engine quelques jours plus tard.

google, Yahoo, Microsoft et Ask.com ne révèlent pas les algorithmes qu’ils emploient pour ranger des pages. Un certain SEOs ont effectué des expériences commandées pour mesurer les effets de différentes approches pour rechercher l’optimisation. Basé sur ces expériences, souvent partagées par les forum et les blogs en ligne, tentative professionnelle de SEOs de former un consensus sur quelles méthodes fonctionnent mieux, bien que le consensus soit rarement, si jamais, réellement atteint.

SEOs conviennent largement que les signaux qui influencent les rangs d’une page incluent : [6] [7]

1. mots-clés dans l’étiquette de titre.
2. mots-clés dans les liens se dirigeant à la page.
3. mots-clés apparaissant en texte évident.
4. Popularité de lien (pagerank pour google) de la page.

Il y a beaucoup d’autres signaux qui peuvent affecter le rang d’une page, indiqués dans un certain nombre de brevets tenus par de divers moteurs de recherche, tels que les données historiques [8].

[éditer] le rapport entre SEO et les moteurs de recherche

Les premières mentions de l’optimisation de search Engine n’apparaissent pas sur l’USENET jusqu’en 1997, quelques années après le lancement des premiers moteurs de recherche d’internet. Les opérateurs des moteurs de recherche ont identifié rapidement que certains de la communauté de webmaster faisaient des efforts de se ranger bien dans des leurs moteurs de recherche, et égal manoeuvrer les rangs de page dans la recherche résulte. Dans certains les premiers moteurs de recherche, tels que l’INFOSEEK, se rangeant la première fois étaient aussi faciles que saisir le code source de la page dessus-rangée, le placement de lui sur votre site Web, et la soumission d’un URL à immédiatement classent et rangent cette page.

En raison du de haute valeur et de l’optimisation des résultats de recherche, il y a potentiel pour un rapport adversarial entre les moteurs de recherche et le SEOs. En 2005, une conférence annuelle appelée AirWeb [9] a été créée pour discuter établir le lien et réduire au minimum les effets endommageants parfois des fournisseurs de contenu de Web agressif.

Encore plus de propriétaires et de SEOs agressifs d’emplacement produisent des emplacements automatisés ou utilisent les techniques qui obtiennent par la suite des domaines interdits des moteurs de recherche. Beaucoup de compagnies d’optimisation de search Engine, qui vendent des services, utilisent le terme, les stratégies à faible risque, et la plupart des sociétés de SEO qui utilisent des stratégies à haut risque font ainsi sur leur propres filiale, mener-génération, ou emplacements contents, au lieu de risquer des sites Web de client.

Les compagnies d’un certain SEO utilisent les techniques agressives qui obtiennent leurs sites Web de client interdits des résultats de recherche. Wall Street Journal a profilé une compagnie qui a employé des techniques à haut risque et prétendument n’a pas révélé ces risques à ses clients. [10] De câble rapporté la même compagnie a poursuivi un blogger pour mentionner qu’ils ont été interdits. [11] Cutts mat de google plus tard a confirmé que google a en fait interdit la puissance du trafic et certains de ses clients. [12]

Quelques moteurs de recherche ont également atteint dehors à l’industrie de SEO, et sont les commanditaires et les invités fréquents aux conférences et aux conférences de SEO. En fait, avec l’arrivée de l’inclusion payée, quelques moteurs de recherche ont maintenant un droit acquis dans la santé de la communauté d’optimisation. Tous les moteurs de recherche principaux fournissent l’information/directives à l’aide en optimisation d’emplacement : google, Yahoo ! ’s, MSN et Ask.com ’ s. google a un programme de Sitemaps [13] pour aider des webmasters à apprendre si google a n’importe quels problèmes classer leur site Web et fournit également des données sur le trafic de google au site Web. Yahoo ! a SiteExplorer qui fournit une manière de soumettre votre URLs pour libre (comme MSN/google), déterminent combien de pages sont dans Yahoo ! classer et forer vers le bas sur des inlinks aux pages profondes. Yahoo ! a un Ambassadeur Program [14] et google a un programme pour qualifier google annonçant les professionnels [15].

[éditer] entrant dans les bases de données de moteurs de recherche

Les moteurs de recherche principaux d’aujourd’hui, généralement, n’exigent aucun effort supplémentaire de soumettre à, car ils sont capables de trouver des pages par l’intermédiaire des liens sur d’autres emplacements.

Cependant, google et Yahoo offrent des programmes de soumission, tels que google Sitemaps, pour lequel un type alimentation de XML peut être créé et soumis. Généralement, cependant, un lien simple d’un emplacement déjà classé obtiendra les moteurs de recherche pour visiter un nouvel emplacement et pour commencer à spidering son contenu. Il peut prendre quelques jours ou même semaines de l’acquisition d’un lien d’un tel emplacement pour que toutes araignées principales de search Engine commencent à classer un nouvel emplacement, et il n’y a habituellement pas beaucoup que peut être fait pour accélérer ce processus.

Une fois que le search Engine trouve un nouvel emplacement, il emploie un programme de chenille pour rechercher et classer les pages sur l’emplacement. Des pages peuvent seulement être trouvées une fois liées à avec les hyperliens évidents. Par exemple, quelques moteurs de recherche n’indiquent pas des liens créés par Flash ou Javascript.

Les chenilles de search Engine peuvent regarder un certain nombre de différents facteurs quand le rampement un emplacement, et beaucoup de pages d’un emplacement ne peut être classé par les moteurs de recherche jusqu’à ce qu’ils gagnent plus de pagerank, de liens ou de trafic. La distance des pages à partir du répertoire racine d’un emplacement peut également être un facteur en si pages obtiennent rampée, aussi bien que l’autre métrique d’importance. Cho et autres. [16] a décrit quelques normes pour ces décisions quant auxquelles des pages sont visitées et envoyées par une chenille à inclure dans l’index d’un search Engine.

Quelques moteurs de recherche, un tel Yahoo ! , actionner les services payés de soumission qui garantissent rampant pour l’un ou l’autre des honoraires d’ensemble de CPC. De tels programmes garantissent habituellement l’inclusion dans la base de données, mais ne garantissent pas le rang spécifique dans les résultats de recherche.

[éditer] bloquant des robots

Webmasters peut demander à des araignées de ne pas ramper de certains dossiers ou annuaires par le dossier standard de robots.txt dans le répertoire racine du domaine. En plus, une page peut être explicitement exclue de la base de données d’un search Engine en employant une étiquette de méta de robots.

Quand un search Engine visite un emplacement, robots.txt situé dans la chemise de racine est le premier dossier a rampé. Le dossier de robots.txt est alors analysé, et seulement des pages non rejetées seront rampées. Pendant qu’une chenille de search Engine peut garder une copie cachée de ce dossier, elle peut occasionnellement ramper des pages qu’un webmaster non souhaité rampé.

Les pages ont typiquement empêché de l’rampement incluent les pages spécifiques d’ouverture telles que les caddies et le contenu utilisateur-spécifique tel que des résultats de recherche des recherches internes.

[éditer] des méthodes « de chapeau blanc »

Il y a une cuisinière des manières qu’un site Web peut être codé, ou le serveur elles résident sur l’ensemble vers le haut, qui ne permettent pas l’accès de moteurs de recherche aux pages sur l’emplacement ou au contenu elles contiennent. Tentative blanche de SEOs de chapeau de découvrir et corriger ces erreurs, telles que la livraison et la navigation de contenu de Javascript, les sessions d’URL et le contenu cachés dans le flash, comme l’augmentation et d’améliorer le contenu sur l’emplacement.

Une tactique, la technique ou la méthode de SEO est considérée « le chapeau blanc » s’il se conforme aux directives de moteurs de recherche et/ou n’implique aucune déception. Comme les directives de search Engine [17] [18] [19] [20] [21] ne sont pas écrits comme série de règles ou de commandements, c’est une distinction importante à noter. Le chapeau blanc SEO n’est pas simplement au sujet des directives suivantes, mais est au sujet de s’assurer que le contenu qu’un search Engine classe et plus tard les grades est le même contenu un utilisateur verra.

Le conseil blanc de chapeau se résume généralement comme créant le contenu pour des utilisateurs, pas pour des moteurs de recherche, et rend alors ce contenu facilement accessible à leurs araignées, plutôt que jeu le système. De beaucoup de manières, le chapeau blanc SEO est très semblable au développement de Web qui favorise l’accessibilité [22], bien que les deux ne soient pas identiques.

Méthodes d’un certain SEO courantes par des moteurs de recherche : [23]

* Employer les titres uniques et appropriés () pour chaque page.
* Éditant le contenu de page Web pour remplacer des mots vagues avec la terminologie spécifique concernant le sujet de la page.
* Fournir unique, contenu de qualité aux intérêts de visiteur d’adresse.
* En utilisant une étiquette précise de méta de description pour rendre des listes de recherche plus instructives.
* S’assurant que toutes les pages sont accessibles par l’intermédiaire des hyperliens d’étiquette d’ancre.
* Permettant à des araignées de search Engine de ramper pages sans identifications de session, biscuits, ou entrer.
* Stratégies se développantes « d’amorce de lien ». Les sites Web de qualité qui offrent les dispositifs intéressants de contenu ou de roman tendent à accumuler un grand nombre de dos lie.
* Inscription des articles utiles et informationnels en échange de l’attribution à l’auteur par hyperlien.

[éditer] des méthodes « de chapeau noir »

article principal : Spamdexing

« Le chapeau noir » SEO sont des méthodes à essayer d’améliorer les rangs qui sont désapprovés par les moteurs de recherche et/ou d’impliquer la déception. Ceci peut s’étendre du texte qui « est caché », pendant que texte colorait semblable au fond ou dans un invisible ou à gauche de la division évidente, ou en réorientant des utilisateurs d’une page qui est construite pour des moteurs de recherche à un qui sont amicaux plus humain. En règle générale, une méthode qui envoie un utilisateur à une page qui était différente à la page l’à moteur de recherche rangé est chapeau noir. Un exemple bien connu masque, le pratique d’une version de la portion une d’une page aux araignées/aux bots de search Engine et d’une version différente aux visiteurs humains.

Les moteurs de recherche peuvent et pénalisent des emplacements qu’ils découvrent en utilisant des méthodes noires de chapeau, en réduisant leurs rangs ou en éliminant leurs listes de leurs bases de données tout à fait. De telles pénalités peuvent être appliquées automatiquement par les algorithmes de moteurs de recherche, ou par un examen manuel d’un emplacement.

Un exemple infâme était le déplacement du février 2006 google de BMW Allemagne et Ricoh Allemagne pour l’usage des pratiques trompeuses. [24]

[éditer] SEO et vente

Il y a un corps classé considérable des praticiens de SEO qui voient des moteurs de recherche en tant que juste autre visiteur à un emplacement, et essaye de faire l’emplacement comme accessible à ces visiteurs quant à tout autre qui viendrait aux pages. Ils voient souvent le chapeau blanc/dichotomie noire de chapeau mentionnés ci-dessus comme dilemme faux. Le centre de leur travail n’est pas principalement de ranger le plus haut pour certaines limites dans des moteurs de recherche, mais d’aider plutôt l’emplacement des propriétaires pour accomplir les objectifs d’affaires de leurs emplacements. En effet, le rang bien pour quelques limites parmi les nombreuses possibilités ne garantit pas plus de ventes. Une campagne réussie de vente d’internet peut conduire des résultats organiques de recherche aux pages, mais elle peut également comporter l’utilisation de la publicité payée sur des moteurs de recherche et d’autres pages, établissant des pages Web de qualité pour s’engager et persuader, adressant les questions techniques qui peuvent garder des moteurs de recherche du rampement et de classer ces emplacements, d’installer des programmes d’analytics pour permettre à des propriétaires d’emplacement de mesurer leurs succès, et de rendre des emplacements accessibles et utilisables.

SEOs peut fonctionner intérieurement pour une organisation, ou comme conseillers, et l’optimisation de search Engine peut être seulement une partie de leurs fonctions quotidiennes. Souvent leur éducation de la façon dont la fonction de moteurs de recherche vient d’agir l’un sur l’autre et de discuter les matières sur des forum, par des blogs, aux conférences et aux conférences populaires, et par expérimentation sur leurs propres emplacements. Il y a peu de cours d’université qui couvrent le marketing en ligne d’une perspective d’ecommerce qui peut suivre les changements que le Web voit quotidiennement.

Tandis que l’essai pour rencontrer les directives signalées par des moteurs de recherche peut aider à établir une base pleine pour le succès sur le Web, de tels efforts sont seulement un début. Beaucoup voient le marketing de search Engine comme plus grand parapluie sous lequel les ajustements d’optimisation de search Engine, mais lui est possible que beaucoup qui se sont concentrés principalement sur SEO dans le passé incorporent de plus en plus des idées de vente à leurs efforts, y compris la stratégie et l’exécution de relations publiques, à médias en ligne d’affichage achetant, à transition SEO de site Web, à analyse de données de tendances de Web, à campagnes d’E-mail de HTML, et à blog d’affaires consultant faisant des sociétés de SEO plutôt une agence d’annonce.

[éditer] les questions légales

En 2002, SearchKing a intenté le procès dans une cour de l’Oklahoma contre le search Engine google. La réclamation de SearchKing était que la tactique de google pour empêcher spamdexing a constitué une procédure de gestion injuste. Ceci peut être comparé aux procès que les inondateurs d’email ont classés contre des Spam-combattants, comme dans divers points de droit contre des CARTES et tout autre DNSBLs. En janvier de 2003, la cour a prononcé un jugement de résumé en faveur de google. [25] En mars 2006, KinderStart.com, LLC a classé une première plainte modifiée contre google et essaye également les membres potentiels de la classe des plaignants pour joindre l’action collective. [26] Le site Web du plaignant a été enlevé de l’index de google avant le procès et la quantité du trafic à l’emplacement est descendue.

[éditer] des références

1. Goodman de ^, Andrew, SearchEngineWatch, épreuve de force de search Engine : Chapeaux noirs contre les chapeaux blancs à SES
2. ^ ce qui est un pavot grand parmi des pages Web ? , Démarches de la septième conférence sur le World Wide Web, Brisbane, Australie, 1998, écrit par Pringle, G., Allison, L., et Dowe, D.
3. ^ Brin, Sergey et page, Larry, l’anatomie d’un search Engine à grande échelle de Web de Hypertextual, démarches de la septième conférence internationale sur le World Wide Web 7, 1998, pages : 107-117
4. ^ WebmasterWorld.com - forum d’optimisation de search Engine
5. ^ le projet intelligent, 4 mai 2006
6. Montre de search Engine de ^ - nouvelles et forum de search Engine. Organisateur des conférences de SES (stratégies de search Engine).
7. Forum de Highrankings de ^ - forum pour SEOs expérimenté et ceux nouveaux au champ
8. recherche documentaire de ^ basée sur des données historiques, demande de brevet de google, 10 octobre 2005
9. recherche documentaire d’AirWeb Adversarial de ^ sur le Web, la conférence annuelle et l’atelier pour des chercheurs et des professionnels
10. Le journal de démarrage de ^ (Wall Street Journal), « optimisent » des rangs à votre propre risque par David Kesmodel chez Wall Street Journal en ligne, 9 septembre 2005
11. Le ^ a câblé le magasin, épreuve de force légale dans le vacarme de recherche, sept, 08, 2005, écrit par Adam L. Penenberg
12. ^ Cutts, mat, confirmant une pénalité, éditée sur 2006-02-02 aux coupes mates Blog
13. Central de maître de Web de google de ^, autrefois connu sous le nom de google Sitemaps
14. L’Ambassadeur Program de ^ par Yahoo ! Vente de recherche
15. Le ^ google annonçant les professionnels, un programme par google AdWords, google Payer-Par-Cliquent le service de la publicité
16. Rampement efficace de ^ par l’URL passant commande par Cho, J., Garcia-Molina, H., 1998, édité aux « démarches de la septième conférence sur le World Wide Web », Brisbane, Australie
17. directives d’éditorial d’Ask.com de ^
18. Les directives de google de ^ sur SEOs
19. Les directives de google de ^ sur la conception d’emplacement
20. Directives de recherche du ^ MSN pour l’indexation réussie
21. ^ Yahoo ! Directives contentes de qualité de recherche
22. Le ^ Andy Hagans, une liste à part, accessibilité élevée est optimisation efficace de search Engine
23. ^ Whalen, Jill, forum de HighRankings, Dix bouts jusqu’au dessus des moteurs de recherche
24. ^ construisant sur le webspam international par Cutts mat, édité le 4 février 2006, chez Cutts mat Blog
25. le ^ [1] google répond au procès de SearchKing, James Grimmelmann chez LawMeme (research.yale.edu), 9 janvier. 2006
26. le ^ [2] (pdf) KinderStart.com, LLC, et autres V. google, Inc., C 06-2057 RS, a classé le 17 mars 2006 dans la zone nordique de la Californie, Division de San Jose.

Dans la même rubrique