rel=”canonical” lekarstwem na duplicate content

 

Mały news dnia w światku SEO. Google sugeruje umieszczanie w części <head> tagu <link> z atrybutem rel=”canonical” zawierającym podstawowy adres danej strony. Np. dla tego postu wpis taki miałby postać:

<link rel=”canonical” href=”http://tomasz.topa.pl/relcanonical-lekarstwem-na-duplicate-content.html” />

Dlaczego coś takiego umieszczać? Ano dlatego aby GoogleBot wiedział, że to ten adres należy traktować jako główny, a np. wszelkie inne formy (np. zawierające ID sesji, dane statystyk itp) były ignorowane i nie były traktowane jako osobne URL z tą samą treścią. Opisywane wcześniej śledzenie RSSów w Google Analytics znów ma sens bez obaw o problemy duplicate content.

Z ważnych rzeczy dotyczących nowego linku:

Is rel=”canonical” a hint or a directive?

It’s a hint that we honor strongly. We’ll take your preference into account, in conjunction with other signals, when calculating the most relevant page to display in search results.

Can this link tag be used to suggest a canonical URL on a completely different domain?

No. To migrate to a completely different domain, permanent (301) redirects are more appropriate. Google currently will take canonicalization suggestions into account across subdomains (or within a domain), but not across domains. So site owners can suggest www.example.com vs. example.com vs. help.example.com, but not example.com vs. example-widgets.com.

Serwis Yoast.com przygotował już i udostępnił odpowiednie pluginy automatyzujące dodawanie rel=”canonical” na stronach opartych o WordPress, Drupal i Magento.

Dzięki dla Majkela za cynk jeszcze przed przejrzeniem dzisiejszej pRaSSówki :)

Wpis opublikowany 13 lutego 2009
Tagi: , , , , ,
Kategorie: blog, google, internet, wszystkie, wyszukiwarki

Zobacz również:

Komentarze do wpisu "rel=”canonical” lekarstwem na duplicate content"

  1. Dobre strony raczej nie mają tego typu problemów, lub są one nie istotne. Moim zdaniem szkoda sobie zawracać tym głowę.

    Autor komentarza, piątek, 13 lut 2009 #

    • Dobre strony na pewno już wcześniej jakoś się zabezpieczały przed duplicate content, np. odpowiednimi noindex. Z drugiej strony wdrożenie tego tagu nie jest jakimś specjalnie trudnym zadaniem, więc może warto poświęcić te 15 minut…

      Autor komentarza, piątek, 13 lut 2009 #

  2. Pytanie pozostaje co z „nofollow”, „noindex” i ogólnie robots.txt na naszych blogach? Czy można już pozbyć się tych zapisów czy też nie.

    Autor komentarza, piątek, 13 lut 2009 #

    • Przecież one mają też zupełnie inne zastosowanie, jak chociażby ochrona podstron/plików/folderów przed wścibskimi robotami.

      Autor komentarza, piątek, 13 lut 2009 #

    • Indexacja tagi/kategorie = duplicate content

      Autor komentarza, piątek, 13 lut 2009 #

    • canonical ma raczej trochę inne zastosowanie… rozumiem, że przez noindex blokujesz podstrony kategorii i tagów przed indeksowaniem treści notek. Tam canonical z adresem pojedynczej notki Ci nic nie da.

      Wszystko się ładnie uzupełnia

      Autor komentarza, piątek, 13 lut 2009 #

    • Tylko czemu tego od razu nie ma w WP w standardzie :/

      Autor komentarza, piątek, 13 lut 2009 #

  3. canonical jest dla tych co nie moga zrobic 301. inny przyklad to wtedy kiedy programisci sie obijaja, a znasz podstawy html wklejasz kod i wszystko dziala :)

    pozatym matt cutts powiedzial ze cala sila danej strony link juice idzie w wybrane miejsce tak wiec jest to 301 dla niedeveloperow.

    ograniczenie tylko takie ze mozna stosowac tylko wewnatrz domeny z domeny A do domeny B canonical nie dziala

    Autor komentarza, sobota, 14 lut 2009 #

  4. Tomek zapytał parę komentarzy wyżej o robots.txt, a ja mam podobne pytanie – czy już nie wystarczy sitemap do tego celu? Akurat WP ma do tego dobrą wtyczkę i do pliku sitemap.xml nie trafia byle co.

    Chyba zaraz zapytam o to pod podlinkowanym wpisem na blogu Google…

    Autor komentarza, sobota, 14 lut 2009 #

    • Najlepiej mieć i to i to. Moim zdaniem bez sitemap ani rusz, ale często jednak radzi się wykorzystać robots.txt

      Trzeba by przeprowadzić eksperyment, żeby określić wpływ pliku robots.

      Autor komentarza, sobota, 14 lut 2009 #

  5. moim zdaniem takze nie ma to wiekszego znaczenia, poniewaz G i Y zdaja sobie sprawe z tego ze mozna to naginac…

    Autor komentarza, niedziela, 1 mar 2009 #

  6. Tylko czemu tego od razu nie ma w WP w standardzie :/

    Autor komentarza, wtorek, 9 lut 2010 #

  7. Czy wiecie jak zrobić aby podstrony serwisu były indeksowane a jednocześnie aby część treści kilka powtarzających się zdań w obszernej stopce nie powodowało duplicate content?

    Autor komentarza, środa, 19 maj 2010 #

Robisz zakupy w internecie?
Pomagaj ZA DARMO przy okazji
4000 organizacji społecznych i ponad 1000 sklepów