Netzwerkpartner

Qualitätsrichtlinien

Unique Content – Wie reduziert man schädliche doppelte Inhalte

by Dirk Boelsems ~ Januar 5th, 2009

Doppelter Content. Ein Problem für jeden ambitionierten Webmaster, der seine Seite bei Suchmaschinen gut indexiert sehen möchte.

Grundsätzlich gilt wie überall auch bei Suchmaschinen die Devise, das Qualität belohnt werden sollte. Aus diesem Grund scannen Suchmaschinen laufend die Inhalte von Millionen Webseiten und müssen auf Basis einer Vielzahl von Parametern “entscheiden”, wo eine Webseite bzw. unter welchen Keywords eine Webseite im Index gelistet wird. Die Suche nach guten Webseiten bzw. Antworten auf bestimmte Fragen führen letztendlich enorm viele Menschen über die großen Suchmaschinen wie Google, Yahoo, MSN etc. zu dem gewünschten Inhalt.

Dies funktioniert aber nur, wenn der Suchende nicht immer wieder auf die gleichen Inhalte stößt. Stellen Sie sich einfach mal vor, Sie suchen nach einer bestimmten Information und finden auf der ersten Seite der Suchmaschine 10 Einträge auf verschiedenen Domains, die nach dem Sie den Eintrag angeklickt haben, aber alle den gleichen Inhalt haben. Also nichts anderes als eine Kopie. Dann würden Sie sicherlich schnell die Qualität und den Nutzen der Suchmaschine in Frage stellen und sich nach einer besseren Suchmaschine umsehen. Dies ist der verständliche Grund dafür, das Suchmaschinen doppelte Inhalte hassen.

Nun müssen Suchmaschinen aus diesem Grund zwei Dinge leisten.

1. Der doppelte Content muss erkannt werden was bedeutet, das jede “neue” Veröffentlichung im Internet mit allen bereits existierenden Seiten verglichen werden muss. Dies bindet natürlich auch Ressourcen.

2. Der doppelte Inhalt muss wieder aus dem Index entfernt werden. Hier stellt sich aber das Problem der Frage: Welcher Inhalt war zuerst da? Oder wer hat bei wem kopiert?

Man könnte jetzt natürlich einfach den Veröffentlichungszeitpunkt im Internet als Referenzwert wählen was bedeutet, das die erste Veröffentlichung als Datenursprung gilt und die danach kommenden Verföffentlichungen als Kopie gelten. Dumm hierbei ist nur, das Suchmaschinen nicht jede Seite permanent scannen oder crawlen wie man sagt. Es gibt Interneseiten, die sehr aktiv täglich neue Inhalte veröffentlichen und wo Suchmaschinen fast permanent scannen (bei Blogs recht häufig) und andere Seiten, die eher unregelmäßig oder selten neue Inhalte veröffentlichen. Dies kann ja auch daran liegen, das diese Seiten aufgrund ihres Inhaltes bzw. der zugrunde liegenden Arbeitssituation eben nicht täglich neue Informationen veröffentlichen können. Beispiel: Wissenschaftliche Themen. Es wird ja nicht täglich eine neue Entdeckung gemacht. Bei dieser Art von Internetseite schauen die Suchmaschinen ggf. nur alle 2 – 3 Wochen vorbei um Änderungen festzustellen.

Jetzt würde in unserem hypothetischen Fall ein Wissenschaftler eine neue Entdeckung auf seiner eigenen von Suchmaschinen aber relativ selten besuchten Seite veröffentlichen und ein Besucher sieht per Zufall diese Information und kopiert Sie sich als Artikel in seinen täglich gescannten Blog. Hier könnten die Suchmaschinen theoretisch kaum erkennen wer kopiert hat und wer nicht. Schließlich erschiene in diesem Fall die Kopie aus Sicht der Suchmaschinen vor der eigentlichen Datenquelle im Internet. Die Entfernung der originalen Datenquelle aus dem Index wäre hier also ein schlimmer Fehler und die Qualität des Indexes würde so mit Sicherheit nicht verbessert werden.

Ein weiteres Kriterium könnte theoretisch die Relevanz der einstellenden Seite sein. Eine Internetseite mit hoher Suchmaschinenrelevanz hätte dann den Vorrang gegenüber einer “schwächeren” Seite. Das hätte zur Folge, das der der Inhalt auch besser indexiert würde, da ja vorgeblich von einer relevanten “seriösen” Seite publiziert. Willkommen in der Diktatur der Starken. Wenn dies so wäre, dürfte jede Page Rank 6 Seite hemmungslos bei einer PR 2 Seite klauen und kopieren und den dort mühsam erarbeiteten Inhalt suchmaschinentechnisch und erfolgstechnisch für sich nutzen. Ungeachtet der Tatsache das dies vorkommen kann, würde dieser Sachverhalt, wenn eindeutig beweisbar, ein Fest für jeden Anwalt sein. Siehe Copyright, Schutz des geistigen Eigentums etc. Also auch hier ein Verfahren, das nicht funktionieren kann oder umgesetzt werden sollte.

Nun bleibt der lieben Suchmaschine eigentlich nur noch eine Möglichkeit. Sie muss versuchen, aus allen Kriterien gleichermaßen etwas zu verwenden, um doppelte Inhalte im Index zu reduzieren. Grundsätzlich scheint dies auch zu funktionieren, denn die Zahl der eindeutigen Kopien scheint noch recht überschaubar zu sein. Damit ist die Qualität der Suchmaschine hinsichtlich doppeltem Content entsprechend wieder in Ordnung.

Nun möchte sich eine Suchmaschine in dieser Hinsicht auch keine Fehler vorwerfen lassen und agiert hinsichtlich der Verlässlichkeit von Veröffentlichungen nach einem einfachen Prinzip: Dem Vertrauensprinzip. Eine Seite die regelmäßig unique Content veröffentlicht, genießt ein entsprechend höheres Vertrauen in die Einzigartigkeit und damit Nützlichkeit der Informationen. Dies bedeutet, das auch gelegentliche Kopien in entsprechend geringem Umfang daran nicht viel ändern wird. Wenn der Prozentsatz der Kopien allerdings deutlich steigt, kann eine Seite im schlimmsten Fall vollständig aus dem Index entfernt werden und nicht nur die entsprechende Kopie einer Information. Es ist also von immenser Bedeutung, gerade für Seiten die Inhalte von “fremden” Autoren veröffentlichen, hier eine Auge darauf zu haben. Die Kunst besteht also darin, den Prozentsatz von Kopien in einem sehr niedrigen Gesamtverhältnis zum Gesamtcontent einer Seite zu halten.

Dies schaffen Sie nur durch die Prüfung aller Inhalte vor Veröffentlichung (Freischaltung). Insbesondere an der Überschrift, die von Suchmaschinen als sehr starker Indikator erkannt wird, erkennt man eine potentielle Kopie sehr schnell. Geben Sie einfach die Überschrift oder eine leicht Abwandlung der Überschrift eines Textes einer Seite in das Suchfeld ein und prüfen Sie die ersten 5 Seiten der Suchmaschine auf Übereinstimmungen. Nun kann niemand das Rad ein zweites Mal erfinden und es lässt sich geanau so wenig verhindern, das Inhalte bei gleichem Thema sehr ähnlich klingen. Manchmal ist die Differenzierung im Detail der klare Zusatznutzen für den Leser einer Information. Generell muss dies aber für Suchmaschinen erkennbar gemacht werden.

Allgemein gilt die Einschätzung, das sich Texte um als unique Content zu gelten zu etwa 50 % voneinander unterscheiden müssen. So ist es besonders wichtig gerade am Anfang eines Textes also auch schon bei der Überschrift eine Unterscheidbarkeit deutlich zu machen. Um einen einzigartigen Inhalt zu verdeutlichen reicht also theoretisch die Verwendung von anderen Bezeichnungen und Umstellungen von Sätzen. So würde der Inhalt im Grunde genommen nahezu identisch mit anderen Veröffentlichungen sein, aus Suchmaschinensicht aber trotzdem einzigartiger Inhalt. Suchmaschinen sind eben keine Menschen und können deshalb keine “Inhalte verstehen” sondern nur nach mathemathischen Allgorithmen arbeiten. Aus der Erkenntnis der Probleme rund um doppelte Inhalte im Internet lässt sich auch erklären, warum viele Internetseiten die ihre Daten in großen Teilen aus zentralen Rechnern bzw. Contentportalen beziehen selbst keine gute oder gar keine Indexierung bei Suchmaschinen haben. Ein gutes Beispiel dafür sind zum Beispiel Buchungsseiten für Reisen. Fast alle diese Seiten beziehen ihre Daten und Angebote aus sehr wenigen Quellen. So finden Sie hunderte Buchungsportale ohne eigene Suchmaschinenreputation.

Problematisch ist aus dieser Sicht auch jede Art der Vernetzung mit integriertem Datenaustausch. Natürlich schaffen Vernetzungen auch mit Datenaustausch neue Chancen. Allerdings riskiert jeder auch damit, das der eigene Content von Suchmaschinen nicht mehr indexiert wird. Da über Suchmaschinen nun einmal ca. 80 % aller Menschen zu der gewünschten Information finden, sollte man sich also überlegen ob man seinen einzigartigen Content leichtfertig mit anderen teilt!

Da die genaue Bewertung von doppelten Inhalten durch Suchmaschinen nicht eindeutig geklärt ist, gilt diese Empfehlung auch für alle Shops, die ihre Artikel über sogenannte Preissuchmaschinen bzw. Partnerprogramme oder Artikelverzeichnisse automatisch als Kopie von anderen Domains anbieten lassen. Natürlich ist dies ein veritables Geschäftsmodell, allerdings bleibt die Frage der Suchmaschinenvorteile oder Nachteile….


Bio von

Hinterlassen Sie ein Kommentar.