rel=”canonical” lekarstwem na duplicate content

 

Ma?y news dnia w ?wiatku SEO. Google sugeruje umieszczanie w cz??ci <head> tagu <link> z atrybutem rel=”canonical” zawieraj?cym podstawowy adres danej strony. Np. dla tego postu wpis taki mia?by posta?:

<link rel=”canonical” href=”http://tomasz.topa.pl/relcanonical-lekarstwem-na-duplicate-content.html” />

Dlaczego co? takiego umieszcza?? Ano dlatego aby GoogleBot wiedzia?, ?e to ten adres nale?y traktowa? jako g?ówny, a np. wszelkie inne formy (np. zawieraj?ce ID sesji, dane statystyk itp) by?y ignorowane i nie by?y traktowane jako osobne URL z t? sam? tre?ci?. Opisywane wcze?niej ?ledzenie RSSów w Google Analytics znów ma sens bez obaw o problemy duplicate content.

Z wa?nych rzeczy dotycz?cych nowego linku:

Is rel=”canonical” a hint or a directive?

It’s a hint that we honor strongly. We’ll take your preference into account, in conjunction with other signals, when calculating the most relevant page to display in search results.

Can this link tag be used to suggest a canonical URL on a completely different domain?

No. To migrate to a completely different domain, permanent (301) redirects are more appropriate. Google currently will take canonicalization suggestions into account across subdomains (or within a domain), but not across domains. So site owners can suggest www.example.com vs. example.com vs. help.example.com, but not example.com vs. example-widgets.com.

Serwis Yoast.com przygotowa? ju? i udost?pni? odpowiednie pluginy automatyzuj?ce dodawanie rel=”canonical” na stronach opartych o WordPress, Drupal i Magento.

Dzi?ki dla Majkela za cynk jeszcze przed przejrzeniem dzisiejszej pRaSSówki :)

Wpis opublikowany 13 lutego 2009
Tagi: , , , , ,
Kategorie: blog, google, internet, wszystkie, wyszukiwarki

Zobacz również:

Komentarze do wpisu "rel=”canonical” lekarstwem na duplicate content"

  1. Dobre strony raczej nie maj? tego typu problemów, lub s? one nie istotne. Moim zdaniem szkoda sobie zawraca? tym g?ow?.

    Autor komentarza, piÄ…tek, 13 lut 2009 #

    • Dobre strony na pewno ju? wcze?niej jako? si? zabezpiecza?y przed duplicate content, np. odpowiednimi noindex. Z drugiej strony wdro?enie tego tagu nie jest jakim? specjalnie trudnym zadaniem, wi?c mo?e warto po?wi?ci? te 15 minut…

      Autor komentarza, piÄ…tek, 13 lut 2009 #

  2. Pytanie pozostaje co z „nofollow”, „noindex” i ogólnie robots.txt na naszych blogach? Czy mo?na ju? pozby? si? tych zapisów czy te? nie.

    Autor komentarza, piÄ…tek, 13 lut 2009 #

    • Przecie? one maj? te? zupe?nie inne zastosowanie, jak chocia?by ochrona podstron/plików/folderów przed w?cibskimi robotami.

      Autor komentarza, piÄ…tek, 13 lut 2009 #

    • Indexacja tagi/kategorie = duplicate content

      Autor komentarza, piÄ…tek, 13 lut 2009 #

    • canonical ma raczej troch? inne zastosowanie… rozumiem, ?e przez noindex blokujesz podstrony kategorii i tagów przed indeksowaniem tre?ci notek. Tam canonical z adresem pojedynczej notki Ci nic nie da.

      Wszystko si? ?adnie uzupe?nia

      Autor komentarza, piÄ…tek, 13 lut 2009 #

    • Tylko czemu tego od razu nie ma w WP w standardzie :/

      Autor komentarza, piÄ…tek, 13 lut 2009 #

  3. canonical jest dla tych co nie moga zrobic 301. inny przyklad to wtedy kiedy programisci sie obijaja, a znasz podstawy html wklejasz kod i wszystko dziala :)

    pozatym matt cutts powiedzial ze cala sila danej strony link juice idzie w wybrane miejsce tak wiec jest to 301 dla niedeveloperow.

    ograniczenie tylko takie ze mozna stosowac tylko wewnatrz domeny z domeny A do domeny B canonical nie dziala

    Autor komentarza, sobota, 14 lut 2009 #

  4. Tomek zapyta? par? komentarzy wy?ej o robots.txt, a ja mam podobne pytanie – czy ju? nie wystarczy sitemap do tego celu? Akurat WP ma do tego dobr? wtyczk? i do pliku sitemap.xml nie trafia byle co.

    Chyba zaraz zapytam o to pod podlinkowanym wpisem na blogu Google…

    Autor komentarza, sobota, 14 lut 2009 #

    • Najlepiej mie? i to i to. Moim zdaniem bez sitemap ani rusz, ale cz?sto jednak radzi si? wykorzysta? robots.txt

      Trzeba by przeprowadzi? eksperyment, ?eby okre?li? wp?yw pliku robots.

      Autor komentarza, sobota, 14 lut 2009 #

  5. moim zdaniem takze nie ma to wiekszego znaczenia, poniewaz G i Y zdaja sobie sprawe z tego ze mozna to naginac…

    Autor komentarza, niedziela, 1 mar 2009 #

  6. Tylko czemu tego od razu nie ma w WP w standardzie :/

    Autor komentarza, wtorek, 9 lut 2010 #

  7. Czy wiecie jak zrobi? aby podstrony serwisu by?y indeksowane a jednocze?nie aby cz??? tre?ci kilka powtarzaj?cych si? zda? w obszernej stopce nie powodowa?o duplicate content?

    Autor komentarza, środa, 19 maj 2010 #

Robisz zakupy w internecie?
Pomagaj ZA DARMO przy okazji
4000 organizacji społecznych i ponad 1000 sklepów