laisser ses robots explorer les fichiers images, CSS et JavaScript
Cela peut avoir un impact négatif sur le classement de votre site
Le moteur explique que ses robots voient désormais plus le contenu qu'ils parcourent "comme des navigateurs modernes", et non plus comme ces "vieux navigateurs limités au texte, du genre de Lynx
example.com/product?item=swedish-fish&category=gummy-candy&sid=789 (URL parameters allow more flexibility for search engines to determine how to crawl efficiently)
Rather than allow user-generated values to create crawlable URLs -- which leads to infinite possibilities with very little value to searchers -- perhaps publish category pages for the most popular values, then include additional information so the page provides more value than an ordinary search results page. Alternatively, consider placing user-generated values in a separate directory and then robots.txt disallow crawling of that directory.
Required parameters may include item-id, category-id, page, etc.
confirme qu'il faut choisir des paramètres correspondant à des requêtes. L'exclusion du prix peut porter à confusion chez nous car c'est aussi une notion importante dans notre cas alors que c'est déconseillé dans l'article.
Option 1: rel="nofollow" internal links
Option 2: Robots.txt disallow
Option 3: Separate hosts
Prevent clickable links when no products exist for the category/filter.
Improve indexing of paginated content
Adding rel=”canonical” from individual component pages in the series to the category’s “view-all” page
Using pagination markup with rel=”next” and rel=”prev” to consolidate indexing properties
Be sure that if using JavaScript to dynamically sort/filter/hide content without updating the URL
Include only canonical URLs in Sitemaps
Be sure that if using JavaScript to dynamically sort/filter/hide content without updating the URL
Adding rel=”canonical” from individual component pages in the series to the category’s “view-all” page
Using pagination markup with rel=”next” and rel=”prev” to consolidate indexing properties,
l'explication fournie par Matt Cutts est que le site "n'a pas été mis à jour depuis longtemps"
Matt Cutts confirme que "sur le long terme", leur souhait est effectivement de "récompenser" les auteurs qui jouissent d'une forte notoriété dans leur domaine.
Selon Matt Cutts, pour l'instant Google n'accorde aucun avantage (SEO) aux sites sécurisés
Concernant la durée des pénalités manuelles (qui sont mentionnées dans Google Webmaster Tools), c'est variable en fonction de la gravité de l'infraction. Pour du texte blanc sur fond blanc, c'est assez court, mais pour des actions black hat, ça peut durer "plusieurs années" !
Il rappelle aussi qu'il faut vraiment travailler l'expérience utilisateur sur nos sites. Il donne l'exemple des formulaires de recherche interne pour lesquels il conseille d'avoir un système d'auto-complétion (suggestion de recherches au fur et à mesure que l'internaute tape sa requête).
Matt Cutts insiste pour dire à quel point le mobile est stratégique.
Concernant Google+ et les réseaux sociaux, Matt Cutts semble rester assez flou sur leur utilisation pour l'algo SEO.
Il confirme que la vitesse du site est un facteur pris en compte par Google, mais il précise néanmoins que l'impact (SEO) est léger
Il indique que dans de nombreux cas, Google arrive à interpréter Javascript et à suivre des liens Javascript.
Je crois avoir déjà partagé une ressource similaire mais ça ne fait jamais de mal de se rafraichir la mémoire (moi meme j'avais zappé, c'est Manon qui m'a filé ce lien) : plusieurs tests pour prouver que Google indexe bien des contenus chargés en JS à n'importe quel moment.