Mit Cano­ni­cal URLs dop­pel­te Inhal­te vermeiden

Datum: 29. September 2009

Die Bedeu­tung rund um das Pro­blem dop­pel­ter Inhal­te (Dupli­ca­te Con­tent) ist nach wie vor aktu­ell. Für Web­mas­ter gibt es eini­ge gän­gi­ge Metho­den, um selbst­ver­ur­sach­ten Dupli­ca­te Con­tent auf dem eige­nen Web­auf­tritt zu ver­mei­den; doch immer wie­der trifft man auf Web­sites, auf denen wich­tigs­te Grund­ein­stel­lun­gen dies­be­züg­lich feh­len, wie zum Bei­spiel die .htac­cess, die robots.txt oder auch der seit eini­gen Mona­ten ver­wen­de­te Cano­ni­cal URL Tag.

Dupli­ca­te Con­tent, der durch uner­laub­tes Kopie­ren von urhe­ber­recht­lich geschütz­ten Inhal­ten ent­steht, dürf­te den meis­ten ein Begriff sein. Die Kon­se­quen­zen sind teil­wei­se dras­tisch und füh­ren von Nicht­in­di­zie­rung ent­spre­chen­der Sei­ten in den Such­ma­schi­nen bis zu Abstra­fen, über die jedoch auch in der SEO-Sze­ne kaum Klar­heit herrscht. Dass dop­pel­te Inhal­te jedoch ver­mie­den wer­den soll­ten, dar­über sind sich alle einig; und das gilt auch für selbst ver­schul­de­ten Dupli­ca­te Con­tent, auch wenn die­ser unab­sicht­lich erzeugt wurde.

Einer der ers­ten Schrit­te, um dop­pel­te Inhal­te zu ver­mei­den, stellt die Erstel­lung einer .htac­cess Datei dar: hier wird zum Bei­spiel fest gelegt, ob die Web­site unter der „www-Vari­an­te“ fir­mie­ren soll oder nicht. Kon­kret: Bevor­zu­ge ich http://www.meine-website.de oder doch eher nur http:meine-website.de? Ers­te­re Vari­an­te ist rat­sa­mer, da ten­den­zi­ell eher auf die­se ver­linkt wird. Um für sei­ne Web­site eine ein­deu­ti­ge URL (man könn­te auch sagen: eine nor­mier­te URL) zu gene­rie­ren, bie­tet sich eine 301-Umlei­tung in der .htac­cess an; 302er sind hier sub­op­ti­mal und unbe­dingt zu vermeiden.

Mit einem sol­chen 301-redi­rect wer­den in der Regel auch gan­ze Domains umge­lei­tet, um zu ver­hin­dern, dass unter zwei oder mehr ver­schie­de­nen URLs Web­in­hal­te gleich mehr­fach auf­tre­ten und indi­ziert wer­den. Für ein­zel­ne Unter­sei­ten und Unter­ord­ner bie­tet sich ent­we­der der Aus­schluss per robots.txt an oder aber die Ver­wen­dung des etwas neue­ren Cano­ni­cal URL Tags. Dies ist eine ele­gan­te Lösung, um für Such­ma­schi­nen klar zu bestim­men, wel­che URL die „domi­nan­te“ ist. Das kann zum Bei­spiel wich­tig wer­den, wenn ver­schie­de­ne dyna­misch erzeug­te Adres­sen auf­tre­ten und des­halb nicht ganz klar ist, wel­che davon nun die ursprüng­li­che ist.

Die­ser Meta­tag gestal­tet sich etwa fol­gen­der­ma­ßen: <link rel=„canonical“ href=„http://www.meine-website.de/unterseite.htm“ /​>. Damit wird für Goog­le & Co. ein­deu­tig fest­ge­legt, dass Hybri­de wie http://www.meine-website.de/unterseite.htm?sid=asdf123456789 nicht die Auto­ri­tät besit­zen. Die­ser Cano­ni­cal URL Tag wird ein­fach im <head> Bereich hin­zu­ge­fügt; für Word­Press Blogs gibt es dafür eige­ne Plug-Ins wie zum Bei­spiel die­ses hier. Doch auch mit dem All In One Seo Pack lässt sich die­ser Meta-Tag erzeu­gen. Er stellt eine sinn­vol­le Ergän­zung da, um Dupli­ca­te Con­tent den Kampf anzu­sa­gen und sei­nen Web­auf­tritt wei­ter zu optimieren.

Tags dieses Beitrags:


    Schreibe einen Kommentar zu "Mit Canonical URLs doppelte Inhalte vermeiden"

    Etwas HTML ist ok