Skip to main content

Home/ SEO FranceProNet/ Contents contributed and discussions participated by Aurelien FpN

Contents contributed and discussions participated by Aurelien FpN

Aurelien FpN

Duplicate Content - SEO Best Practices - Moz - 0 views

  •  
    Idem que l'article de GG sur le duplicate content mais avec des illustrations et en anglais. Pas mal pour Manon.
Aurelien FpN

Contenu dupliqué - Centre d'aide Outils pour les webmasters - 0 views

  • Si votre site contient plusieurs pages dont le contenu est très similaire, vous pouvez indiquer à Google votre URL préférée de plusieurs façons. (C'est ce qu'on appelle la "canonicalisation"
  • Google s'efforce d'indexer et d'afficher des pages contenant des informations distinctes. Avec ce filtrage, si votre site propose, par exemple, une version "ordinaire" et une version "imprimable" de chaque article et qu'aucune de ces deux versions n'est bloquée par une balise Meta noindex, nous choisissons l'une des deux pour l'inclure dans la liste. Dans les rares cas où nous estimons que du contenu en double est peut-être affiché dans le but de manipuler nos classements et de tromper nos utilisateurs, nous apportons également les ajustements appropriés dans l'indexation et le classement des sites impliqués. En conséquence, le classement du site peut être affecté, ou le site peut être retiré définitivement de l'index Google, auquel cas il n'apparaîtra plus dans les résultats de recherche.
  • Utilisez des redirections 301
  • ...9 more annotations...
  • Soyez cohérent
  • Utilisez des domaines de premier niveau
  • Soyez prudent en syndiquant votre contenu
  • Utilisez les Outils pour les webmasters afin de nous indiquer le type d'indexation à privilégier pour votre site 
  • Limitez les répétitions
  • Évitez la publication de pages incomplètes :
  • Apprenez à maîtriser votre système de gestion du contenu
  • Limitez les contenus similaires 
  • Il n'est pas recommandé de bloquer l'accès des robots d'exploration au contenu en double de votre site Web, que ce soit à l'aide d'un fichier robots.txt ou d'autres méthodes. Si les moteurs de recherche ne peuvent pas explorer les pages qui intègrent du contenu en double, ils sont incapables de détecter automatiquement que les URL pointent sur un contenu identique. Par conséquent, ils doivent traiter ces URL en tant que pages uniques et distinctes. Il est, au contraire, conseillé d'autoriser les moteurs de recherche à explorer ces URL, tout en marquant ces dernières comme étant dupliquées avec l'élément de lien rel="canonical", l'outil de gestion des paramètres d'URL, ou des redirections 301
  •  
    Autre article de GG sur le duplicate content pour Manon
Aurelien FpN

Lutter contre le Duplicate Content sur Google | 1ère Position - 0 views

  •  
    Intéressant pour Manon pour comprendre le duplicate content.
Aurelien FpN

Automated Access to Google Analytics Data in Google Spreadsheets - Google Analytics - G... - 0 views

  •  
    Tuto pour automatiser les rapports Google Analytics via Google Drive
Aurelien FpN

Official Google Webmaster Central Blog: Faceted navigation best (and 5 of the worst) pr... - 0 views

  • example.com/product?item=swedish-fish&category=gummy-candy&sid=789 (URL parameters allow more flexibility for search engines to determine how to crawl efficiently)
    • Aurelien FpN
       
      Il préfère les url non rewritées
  • Rather than allow user-generated values to create crawlable URLs  -- which leads to infinite possibilities with very little value to searchers -- perhaps publish category pages for the most popular values, then include additional information so the page provides more value than an ordinary search results page. Alternatively, consider placing user-generated values in a separate directory and then robots.txt disallow crawling of that directory.
  • Required parameters may include item-id, category-id, page, etc.
  • ...13 more annotations...
  • I may find the URL parameter “taste” to be valuable to searchers for queries like [sour gummy candies]
    • Aurelien FpN
       
      confirme qu'il faut choisir des paramètres correspondant à des requêtes. L'exclusion du prix peut porter à confusion chez nous car c'est aussi une notion importante dans notre cas alors que c'est déconseillé dans l'article. 
  • Option 1: rel="nofollow" internal links
  • Option 2: Robots.txt disallow
  • Option 3: Separate hosts
  • Prevent clickable links when no products exist for the category/filter.
  • Improve indexing of paginated content
  • Adding rel=”canonical” from individual component pages in the series to the category’s “view-all” page
  • Using pagination markup with rel=”next” and rel=”prev” to consolidate indexing properties
  • Be sure that if using JavaScript to dynamically sort/filter/hide content without updating the URL
  • Include only canonical URLs in Sitemaps
  • Be sure that if using JavaScript to dynamically sort/filter/hide content without updating the URL
  • Adding rel=”canonical” from individual component pages in the series to the category’s “view-all” page
  • Using pagination markup with rel=”next” and rel=”prev” to consolidate indexing properties,
Aurelien FpN

SEO : Mon Guest blogging dans ton fion - 1 views

  • En réalité ce dernier article de Cutts ne fait que prouver à quel point le Guest Blogging fait vraiment chier Google
  • Plutôt que d’investir dans de la recherche pour mettre au point une improbable solution fiable de détection des articles invités, il est beaucoup plus efficace pour Google de tenter une solution en amont du problème, via une petite piquouse de terreur
  • Il y a le bon Guest blogging et le mauvais guest blogging. Typiquement d’après le boss de la webspam, le bon guest blogging respecte les guidelines et accompagne ses liens sortants de l’attribut rel nofollow. Inversement le mauvais guest blogging ne respecte évidemment pas les consignes en laissant les moteurs suivre les liens sortants. Plus loin il qualifie ces derniers de « faible qualité ».
  • ...1 more annotation...
  • En résumé il veut nous laisser croire que la valeur des attributs rel nofollow ou dofollow seraient des indicateurs de qualité pour un guest post. L’exemple caricatural suivant ne me semble pas exagéré : Pour Google mieux vaut un article de merde mais organique, qu’un super article non-organique.
Aurelien FpN

Why Guest Posting and Blogging is a Slippery Slope - Whiteboard Friday - Moz - 1 views

  •  
    Conseils pour que sa stratégie de Guest blogging ne devienne pas pénalisante
Aurelien FpN

Outil de suivi de positionnement Google : SERP Tracker - 1 views

shared by Aurelien FpN on 15 Jan 14 - No Cached
  •  
    Allorank, un outil pour travailler sa stratégie de mots clés (ranking, veille concurrence, e-reputation)
Aurelien FpN

SEO Changed Forever In 2013. How To Adjust And Thrive In 2014 - 0 views

  •  
    Bon bilan SEO 2013
Aurelien FpN

Le 1er hangout en français de l'équipe qualité Google - 0 views

  • Si vous avez une pénalité pour liens factices, et que vous recevez un message de refus de levée de l'action manuelle, Google peut vous donner jusqu'à 3 exemples d'URL contenant un lien factice. Si vous ne faites que retirer ces 3 liens, vous avez très peu de chances de voir votre pénalité levée, car il reste certainement d'autres liens contraires aux consignes.
  • Même si c'est assez perturbant, voire pénible, Google continue de lister dans la rubrique Liens externes de GWT les liens que vous avez pourtant désavoués. Google est au courant qu'il faudrait améliorer ça, mais pour l'instant il faut faire avec. Au passage, je rappelle que Google liste également des liens qui sont pourtant nofollow (donc ignorés).
  • si vous envoyez plusieurs fichiers de suite, seul le dernier est pris en compte. Ne faites donc pas l'erreur d'uploader plusieurs fichiers de suite avec à chaque fois quelques liens supplémentaires à désavouer : il faut au contraire tout accumuler dans un seul fichier.
  • ...5 more annotations...
  • Suite à une question que j'ai posée, j'ai eu la confirmation que Google n'apprécie pas qu'un webmaster passe à 100% par le fichier de désaveu, sans faire retirer aucun lien.
  • Remarque : cette réponse concerne les cas de pénalités manuelles. Selon John Mueller de Google, il est "théoriquement" possible de se sortir d'une pénalité algorithmique (Pingouin) uniquement en désavouant les liens, sans les supprimer.
  • Oui... Google peut vous pénaliser pour des liens vieux de nombreuses années.
  • Pour lever une pénalité, faut-il retirer un certain pourcentage de liens factices ? Non, l'équipe qualité ne raisonne pas de cette façon : il n'existe pas de seuil ou de pourcentage à atteindre ou ne pas dépasser
  • En combien de temps le fichier de désaveu est-il pris en compte ? Nous n'avons pas obtenu de réponse précise (j'ai eu l'impression qu'ils ne le savaient pas, car cela concerne l'algorithme et non pas les analyses manuelles). Selon eux, il faut tabler sur "quelques jours".
Aurelien FpN

Unnatural Links & Penguin Recovery using the Google Disavow Tool - cognitiveSEO - 0 views

    • Aurelien FpN
       
      Il était question qu'on se serve de ce soft me semble-t-il...On en est où ?  Ce qui est intéressant c'est qu'il écrit que Penguin a frappé le site et qu'il a décliné progressivement. Alors qu'on a toujours dit avec Gilles que si on avait été pénalisé, on aurait eu une chute du jour au lendemain, ce qui n'a pas été le cas.
Aurelien FpN

Matt Cutts: Google Penalties Get More Severe for Repeat Offenders - Search Engine Watch... - 1 views

  • Google tends to look at buying and selling links that pass PageRank as a violation of our guidelines and if we see that happening multiple times, repeated times, then the actions that we take get more and more severe," Cutts said. "So we're more willing to take stronger action whenever we see repeated violations
  • So if your website has received a spam warning from Google, you need to be extra certain that you keep your SEO techniques very clean, and not skate too close to that gray line between white hat and black hat SEO. And this also means checking carefully for other things, like your backlink profile, so you can disavow immediately.
  • So that the sort of thing where company is willing to say, "You know what, we might've had good links for a number of years and then we had really bad advice and someone did everything wrong for a few months, maybe up to year, so just to be safe let's just disavow everything in that time frame." That's a pretty radical action and that's the sort of thing where we heard back on a reconsideration request that someone had taken that kind of a strong action, then we could look and say, "OK, this is something people are taking seriously."
  • ...2 more annotations...
  • Others take the more subtle approach and start disavowing the ones that are definitely dirty and hurting the website, and just add more to the disavow list and until the penalty is lifted. But considering what Cutts is saying now, it seems that if you want immediate help with getting a site back into the index that has been penalized for bad quality backlinks, the fastest resolution seems to be wiping the slate clean by disavowing everything, and starting over again.
  • "A good reconsideration request is often using the domain query (domain:), and taking out large amounts of domains that have bad links. I wouldn't necessarily recommend going the route of everything for last year or everything for the last year and a half, but that's the sort of large-scale action, if taken, can have an impact whenever we're assessing a domain within a reconsideration request."
Aurelien FpN

Pinterest - 0 views

  •  
    Ne pas simplement compiler des morceaux de contenus pris ici et là sur le web car cela ne présente aucune plus-value. Trouver une façon intéressante de le faire en rajoutant des informations propres.
« First ‹ Previous 41 - 60 of 64 Next ›
Showing 20 items per page