Skip to main content

Home/ SEO FranceProNet/ Group items tagged robots txt

Rss Feed Group items tagged

Aurelien FpN

Les petites subtilités du fichier robots.txt qui peuvent faire mal - 0 views

  •  
    bon article sur les robots.txt et les quelques commentaire sont aussi utiles et sympa
Aurelien FpN

Official Google Webmaster Central Blog: Faceted navigation best (and 5 of the worst) pr... - 0 views

  • example.com/product?item=swedish-fish&category=gummy-candy&sid=789 (URL parameters allow more flexibility for search engines to determine how to crawl efficiently)
    • Aurelien FpN
       
      Il préfère les url non rewritées
  • Rather than allow user-generated values to create crawlable URLs  -- which leads to infinite possibilities with very little value to searchers -- perhaps publish category pages for the most popular values, then include additional information so the page provides more value than an ordinary search results page. Alternatively, consider placing user-generated values in a separate directory and then robots.txt disallow crawling of that directory.
  • Required parameters may include item-id, category-id, page, etc.
  • ...13 more annotations...
  • I may find the URL parameter “taste” to be valuable to searchers for queries like [sour gummy candies]
    • Aurelien FpN
       
      confirme qu'il faut choisir des paramètres correspondant à des requêtes. L'exclusion du prix peut porter à confusion chez nous car c'est aussi une notion importante dans notre cas alors que c'est déconseillé dans l'article. 
  • Option 1: rel="nofollow" internal links
  • Option 2: Robots.txt disallow
  • Option 3: Separate hosts
  • Prevent clickable links when no products exist for the category/filter.
  • Improve indexing of paginated content
  • Adding rel=”canonical” from individual component pages in the series to the category’s “view-all” page
  • Using pagination markup with rel=”next” and rel=”prev” to consolidate indexing properties
  • Be sure that if using JavaScript to dynamically sort/filter/hide content without updating the URL
  • Include only canonical URLs in Sitemaps
  • Be sure that if using JavaScript to dynamically sort/filter/hide content without updating the URL
  • Adding rel=”canonical” from individual component pages in the series to the category’s “view-all” page
  • Using pagination markup with rel=”next” and rel=”prev” to consolidate indexing properties,
Aurelien FpN

Contenu dupliqué - Centre d'aide Outils pour les webmasters - 0 views

  • Si votre site contient plusieurs pages dont le contenu est très similaire, vous pouvez indiquer à Google votre URL préférée de plusieurs façons. (C'est ce qu'on appelle la "canonicalisation"
  • Google s'efforce d'indexer et d'afficher des pages contenant des informations distinctes. Avec ce filtrage, si votre site propose, par exemple, une version "ordinaire" et une version "imprimable" de chaque article et qu'aucune de ces deux versions n'est bloquée par une balise Meta noindex, nous choisissons l'une des deux pour l'inclure dans la liste. Dans les rares cas où nous estimons que du contenu en double est peut-être affiché dans le but de manipuler nos classements et de tromper nos utilisateurs, nous apportons également les ajustements appropriés dans l'indexation et le classement des sites impliqués. En conséquence, le classement du site peut être affecté, ou le site peut être retiré définitivement de l'index Google, auquel cas il n'apparaîtra plus dans les résultats de recherche.
  • Utilisez des redirections 301
  • ...9 more annotations...
  • Soyez cohérent
  • Utilisez des domaines de premier niveau
  • Soyez prudent en syndiquant votre contenu
  • Utilisez les Outils pour les webmasters afin de nous indiquer le type d'indexation à privilégier pour votre site 
  • Limitez les répétitions
  • Évitez la publication de pages incomplètes :
  • Apprenez à maîtriser votre système de gestion du contenu
  • Limitez les contenus similaires 
  • Il n'est pas recommandé de bloquer l'accès des robots d'exploration au contenu en double de votre site Web, que ce soit à l'aide d'un fichier robots.txt ou d'autres méthodes. Si les moteurs de recherche ne peuvent pas explorer les pages qui intègrent du contenu en double, ils sont incapables de détecter automatiquement que les URL pointent sur un contenu identique. Par conséquent, ils doivent traiter ces URL en tant que pages uniques et distinctes. Il est, au contraire, conseillé d'autoriser les moteurs de recherche à explorer ces URL, tout en marquant ces dernières comme étant dupliquées avec l'élément de lien rel="canonical", l'outil de gestion des paramètres d'URL, ou des redirections 301
  •  
    Autre article de GG sur le duplicate content pour Manon
1 - 4 of 4
Showing 20 items per page