Duplicate Content ist ein wichtiger Begriff im Rahmen von SEO oder der Suchmaschinenoptimierung, wobei es absichtliche Mehrfachinhalte geben kann, es kann aber auch unabsichtlich zu diesem Effekt kommen. Dabei sind verschiedene Möglichkeiten zu berücksichtigen und auch verschiedene Ursachen. Manches lässt sich leider nicht so leicht abdrehen, anderes hingegen sehr einfach.
Duplicate Content ist ein englischer SEO-Begriff umschreibt doppelten Inhalt oder gar mehrfachen Inhalt. Aus Sicht der Suchmaschine heißt dies, dass man den gleichen Inhalt mehrfach eintragen müsste und damit mehr Arbeit mit den Informationen hat, als notwendig wäre. Daher lehnen die Suchmaschinen diese Methode kategorisch ab und man erreicht damit nichts. Oder umgekehrt kann es sein, dass man mit seinen Inhalten überhaupt nicht berücksichtigt wird.
Webhosting mit viel Software bei Alfahosting (Affiliate-Link)
Dabei gibt es verschiedene Möglichkeiten, die von böse über die Opferrolle bis zu technischen Begründungen reichen können.
Duplicate Content: vorsätzlich mehrfacher Inhalt
Die böse Variante ist, dass man Seiten aufgebaut hat und genau die gleichen Seiten mit exakt dem gleichen Inhalt unter einer anderen Domain ebenfalls anbietet. Also gibt es die Texte für Webdesign nicht nur unter dem Begriff und der Domain Webdesign (jetzt als Beispiel), sondern man baut eine weitere Seite mit exakt gleichen Inhalt unter der Domain Internetseite oder Webseite oder Programmieren etc. auf.
Idee: mehrere Domains ergeben mehr Besucher ergo mehr Erfolg
Praxis: Google & Co. erkennen genau den gleichen Inhalt und entweder wird eine Quelle als Original belassen und die anderen ignoriert oder es werden überhaupt alle Seiten ignoriert und man hat nichts erreicht
Webhosting bei Alfahosting - jetzt gratis testen! (Affiliate-Link)
Duplicate Content: die Opferrolle
Es geht auch passiv und zwar dann, wenn externe Leute die eigene Seite 1:1 kopieren und unter einer anderen Domain anbieten. Das ist eigentlich die gleiche Situation wie bei der vorsätzlichen Lösung, doch hat man keinen Fehler gemacht, es waren andere Herrschaften am Werk.
Warum und wie kann man das verhindern?
Der Hauptgrund ist eigentlich ein trauriger. Wenn man einen RSS-Dienst betreibt, um die Besucherinnen und Besucher regelmäßig über Neuigkeiten zu informieren, kann man diese RSS-Daten auch auslesen, weil es simples XML ist. Das nutzen Gauner aus und lesen die Daten aus - ergo greifen sie regelmäßig auf die RSS-Datei zu - und bieten die Informationen ohne einen Strich Arbeit auf der eigenen Seite an. Viele haben aus diesem Grund den RSS-Dienst abgedreht, was richtig schade ist und zeigt, wie viel negative Energie im Internet zu finden ist. Man kann gefundene Kopien den Suchmaschinen melden, die daraufhin eine Überprüfung vornehmen. Bei Google zum Beispiel über die Google Foren für Webmaster oder wenn AdSense betroffen ist auch das Forum rund um die Google Werbung.
Idee: mit fremden Inhalt per Werbung Geld verdienen
Praxis: Google & Co. werden immer besser, das Original zu erkennen, zumal viele dieser Kopien Umlautprobleme und andere Schwierigkeiten im Text haben und man erkennen kann, dass das kopiert wurde. Die Suchmaschinen schmeissen diese Seiten hinaus und das Original bleibt bestehen - aber Ärger gibt es trotzdem und manchmal sogar lange.
Duplicate Content: die technische Falle
Es gibt noch einen Fall, wie es zu doppelten Inhalt kommen kann und zwar durch die dynamischen Webseiten. Eine dynamische Webseite arbeitet meist über die index.php als Einstiegsseite und jede Unterseite ist als sprechende Adresse über die eingetragenen Schlüsselwörter, aber auch über die interne id-Adresse und manchmal auch über die Kurzform erreichbar, zum Beispiel:
domain/webdesign
domain/?id=15
domain/index.php?id=15
Alle drei Ziele dieser fiktiven Adresse führen zu der gleichen echten Seite, damit sind aber auch drei verschiedene Adressen möglich. Fehler ist keiner passiert, es ist einfach das Prinzip der dynamischen Grundbasis. Das geht bei Typo3 genauso wie bei selbst programmierten Systemen oder bei Wordpress.
Aber hier kann man eine ganz einfache Lösung vornehmen, nämlich indem man den canonical Tag setzt, der den Suchmaschinen mitteilt, welche Adresse die richtige ist.
Mit diesem einfachen Werkzeug kann man verhindern, dass drei Adressen um den besten Platz rittern und dafür sorgen, dass die Seite in Wirklichkeit deutlich schwächer gereiht wird als möglich. Die anderen Seiten werden erkannt, aber nicht eingetragen, weil es durch den canonical Tag bereits ein genanntes Original gibt. Es kann also nicht passieren, dass man eine Seite mehrfach in den Suchmaschinen findet und damit kann man auch viele der bösen Kopien im Netz ausbremsen.
Die Suchmaschinenoptimierung ist ein Konzept, um seine eigene Seite erfolgreicher zu machen, doch viele Tricks wurden in der Zwischenzeit ad absurdum geführt, weil die Suchmaschinen nicht mehr darauf reagieren. Die Doorway-Seiten sind so ein Beispiel, auch versteckte Keywords oder der Linktausch funktionieren nicht mehr.
Themenseiten
Grundlagen
HTML-Grundlagen
CSS-Grundlagen
Javascript-Grundlagen
PHP-Grundlagen
MySQL-Grundlagen
SEO-Grundlagen
Infos, Tipps, Vermarktung
Webdesign-Lexikon
Online-Werbung
PHP-Codeschnipsel
Praxisartikel