{"id":295,"date":"2009-01-05T11:05:27","date_gmt":"2009-01-05T09:05:27","guid":{"rendered":"http:\/\/www.e-business-unternehmensberatung.com\/blog\/?p=295"},"modified":"2009-01-05T11:05:27","modified_gmt":"2009-01-05T09:05:27","slug":"unique-content-wie-reduziert-man-schaedliche-doppelte-inhalte","status":"publish","type":"post","link":"https:\/\/www.e-business-unternehmensberatung.com\/blog\/unique-content-wie-reduziert-man-schaedliche-doppelte-inhalte\/","title":{"rendered":"Unique Content &#8211; Wie reduziert man sch\u00e4dliche doppelte Inhalte"},"content":{"rendered":"<p>Doppelter Content. Ein Problem f\u00fcr jeden ambitionierten Webmaster, der seine Seite bei Suchmaschinen gut indexiert sehen m\u00f6chte.<\/p>\n<p>Grunds\u00e4tzlich gilt wie \u00fcberall auch bei Suchmaschinen die Devise, das Qualit\u00e4t belohnt werden sollte. Aus diesem Grund scannen Suchmaschinen laufend die Inhalte von Millionen Webseiten und m\u00fcssen auf Basis einer Vielzahl von Parametern &#8222;entscheiden&#8220;, wo eine Webseite bzw. unter welchen Keywords eine Webseite im Index gelistet wird.  Die Suche nach guten Webseiten bzw. Antworten auf bestimmte Fragen f\u00fchren letztendlich enorm viele Menschen \u00fcber die gro\u00dfen Suchmaschinen wie Google, Yahoo, MSN etc. zu dem gew\u00fcnschten Inhalt.<\/p>\n<p>Dies funktioniert aber nur, wenn der Suchende nicht immer wieder auf die gleichen Inhalte st\u00f6\u00dft.  Stellen Sie sich einfach mal vor, Sie suchen nach einer bestimmten Information und finden auf der ersten Seite der Suchmaschine 10 Eintr\u00e4ge auf verschiedenen Domains, die nach dem Sie den Eintrag angeklickt haben, aber alle den gleichen Inhalt haben. Also nichts anderes als eine Kopie. Dann w\u00fcrden Sie sicherlich schnell die Qualit\u00e4t und den Nutzen der Suchmaschine in Frage stellen und sich nach einer besseren Suchmaschine umsehen.  Dies ist der verst\u00e4ndliche Grund daf\u00fcr, das Suchmaschinen doppelte Inhalte hassen.<\/p>\n<p>Nun m\u00fcssen Suchmaschinen aus diesem Grund zwei Dinge leisten.<\/p>\n<p>1. Der doppelte Content muss erkannt werden was bedeutet, das jede &#8222;neue&#8220; Ver\u00f6ffentlichung im Internet mit allen bereits existierenden Seiten verglichen werden muss. Dies bindet nat\u00fcrlich auch Ressourcen.<\/p>\n<p>2. Der doppelte Inhalt muss wieder aus dem Index entfernt werden. Hier stellt sich aber das Problem der Frage: Welcher Inhalt war zuerst da? Oder wer hat bei wem kopiert?<\/p>\n<p>Man k\u00f6nnte jetzt nat\u00fcrlich einfach den Ver\u00f6ffentlichungszeitpunkt im Internet als Referenzwert w\u00e4hlen was bedeutet, das die erste Ver\u00f6ffentlichung als Datenursprung gilt und die danach kommenden Verf\u00f6ffentlichungen als Kopie gelten. Dumm hierbei ist nur, das Suchmaschinen nicht jede Seite permanent scannen oder crawlen wie man sagt. Es gibt Interneseiten, die sehr aktiv t\u00e4glich neue Inhalte ver\u00f6ffentlichen und wo Suchmaschinen fast permanent scannen (bei Blogs recht h\u00e4ufig) und andere Seiten, die eher unregelm\u00e4\u00dfig oder selten neue Inhalte ver\u00f6ffentlichen. Dies kann ja auch daran liegen, das diese Seiten aufgrund ihres Inhaltes bzw. der zugrunde liegenden Arbeitssituation eben nicht t\u00e4glich neue Informationen ver\u00f6ffentlichen k\u00f6nnen. Beispiel: Wissenschaftliche Themen. Es wird ja nicht t\u00e4glich eine neue Entdeckung gemacht. Bei dieser Art von Internetseite schauen die Suchmaschinen ggf. nur alle 2 &#8211; 3 Wochen vorbei um \u00c4nderungen festzustellen.<\/p>\n<p>Jetzt w\u00fcrde in unserem hypothetischen Fall ein Wissenschaftler eine neue Entdeckung auf seiner eigenen von Suchmaschinen aber relativ selten besuchten Seite ver\u00f6ffentlichen und ein Besucher sieht per Zufall diese Information und kopiert Sie sich als Artikel in seinen t\u00e4glich gescannten Blog. Hier k\u00f6nnten die Suchmaschinen theoretisch kaum erkennen wer kopiert hat und wer nicht. Schlie\u00dflich erschiene in diesem Fall die Kopie aus Sicht der Suchmaschinen vor der eigentlichen Datenquelle im Internet.  Die Entfernung der originalen Datenquelle aus dem Index w\u00e4re hier also ein schlimmer Fehler und die Qualit\u00e4t des Indexes w\u00fcrde so mit Sicherheit nicht verbessert werden.<\/p>\n<p>Ein weiteres Kriterium k\u00f6nnte theoretisch die Relevanz der einstellenden Seite sein. Eine Internetseite mit hoher Suchmaschinenrelevanz h\u00e4tte dann den Vorrang gegen\u00fcber einer &#8222;schw\u00e4cheren&#8220; Seite. Das h\u00e4tte zur Folge, das der der Inhalt auch besser indexiert w\u00fcrde, da ja vorgeblich von einer relevanten &#8222;seri\u00f6sen&#8220; Seite publiziert.  Willkommen in der Diktatur der Starken. Wenn dies so w\u00e4re, d\u00fcrfte jede Page Rank 6 Seite hemmungslos bei einer PR 2 Seite klauen und kopieren und den dort m\u00fchsam erarbeiteten Inhalt suchmaschinentechnisch und erfolgstechnisch f\u00fcr sich nutzen. Ungeachtet der Tatsache das dies vorkommen kann, w\u00fcrde dieser Sachverhalt, wenn eindeutig beweisbar, ein Fest f\u00fcr jeden Anwalt sein. Siehe Copyright, Schutz des geistigen Eigentums etc. Also auch hier ein Verfahren, das nicht funktionieren kann oder umgesetzt werden sollte.<\/p>\n<p>Nun bleibt der lieben Suchmaschine eigentlich nur noch eine M\u00f6glichkeit.  Sie muss versuchen, aus allen Kriterien gleicherma\u00dfen etwas zu verwenden, um doppelte Inhalte im Index zu reduzieren. Grunds\u00e4tzlich scheint dies auch zu funktionieren, denn die Zahl der eindeutigen Kopien scheint noch recht \u00fcberschaubar zu sein. Damit ist die Qualit\u00e4t der Suchmaschine hinsichtlich doppeltem Content entsprechend wieder in Ordnung.<\/p>\n<p>Nun m\u00f6chte sich eine Suchmaschine in dieser Hinsicht auch keine Fehler vorwerfen lassen und agiert hinsichtlich der Verl\u00e4sslichkeit von Ver\u00f6ffentlichungen nach einem einfachen Prinzip: Dem Vertrauensprinzip. Eine Seite die regelm\u00e4\u00dfig unique Content ver\u00f6ffentlicht, genie\u00dft ein entsprechend h\u00f6heres Vertrauen in die Einzigartigkeit und damit N\u00fctzlichkeit der Informationen. Dies bedeutet, das auch gelegentliche Kopien in entsprechend geringem Umfang daran nicht viel \u00e4ndern wird. Wenn der Prozentsatz der Kopien allerdings deutlich steigt, kann eine Seite im schlimmsten Fall vollst\u00e4ndig aus dem Index entfernt werden und nicht nur die entsprechende Kopie einer Information.  Es ist also von immenser Bedeutung, gerade f\u00fcr Seiten die Inhalte von &#8222;fremden&#8220; Autoren ver\u00f6ffentlichen, hier eine Auge darauf zu haben. Die Kunst besteht also darin, den Prozentsatz von Kopien in einem sehr niedrigen Gesamtverh\u00e4ltnis zum Gesamtcontent einer Seite zu halten.<\/p>\n<p>Dies schaffen Sie nur durch die Pr\u00fcfung aller Inhalte vor Ver\u00f6ffentlichung (Freischaltung). Insbesondere an der \u00dcberschrift, die von Suchmaschinen als sehr starker Indikator erkannt wird, erkennt man eine potentielle Kopie sehr schnell. Geben Sie einfach die \u00dcberschrift oder eine leicht Abwandlung der \u00dcberschrift eines Textes einer Seite in das Suchfeld ein und pr\u00fcfen Sie die ersten 5 Seiten der Suchmaschine auf \u00dcbereinstimmungen.  Nun kann niemand das Rad ein zweites Mal erfinden und es l\u00e4sst sich geanau so wenig verhindern, das Inhalte bei gleichem Thema sehr \u00e4hnlich klingen. Manchmal ist die Differenzierung im Detail der klare Zusatznutzen f\u00fcr den Leser einer Information. Generell muss dies aber f\u00fcr Suchmaschinen erkennbar gemacht werden.<\/p>\n<p>Allgemein gilt die Einsch\u00e4tzung, das sich Texte um als unique Content zu gelten zu etwa 50 % voneinander unterscheiden m\u00fcssen. So ist es besonders wichtig gerade am Anfang eines Textes also auch schon bei der \u00dcberschrift eine Unterscheidbarkeit deutlich zu machen.  Um einen einzigartigen Inhalt zu verdeutlichen reicht also theoretisch die Verwendung von anderen Bezeichnungen und Umstellungen von S\u00e4tzen. So w\u00fcrde der Inhalt im Grunde genommen nahezu identisch mit anderen Ver\u00f6ffentlichungen sein, aus Suchmaschinensicht aber trotzdem einzigartiger Inhalt. Suchmaschinen sind eben keine Menschen und k\u00f6nnen deshalb keine &#8222;Inhalte verstehen&#8220; sondern nur nach mathemathischen Allgorithmen arbeiten.  Aus der Erkenntnis der Probleme rund um doppelte Inhalte im Internet l\u00e4sst sich auch erkl\u00e4ren, warum viele Internetseiten die ihre Daten in gro\u00dfen Teilen aus zentralen Rechnern bzw. Contentportalen beziehen selbst keine gute oder gar keine Indexierung bei Suchmaschinen haben. Ein gutes Beispiel daf\u00fcr sind zum Beispiel Buchungsseiten f\u00fcr Reisen. Fast alle diese Seiten beziehen ihre Daten und Angebote aus sehr wenigen Quellen. So finden Sie hunderte Buchungsportale ohne eigene Suchmaschinenreputation.<\/p>\n<p>Problematisch ist aus dieser Sicht auch jede Art der Vernetzung mit integriertem Datenaustausch. Nat\u00fcrlich schaffen Vernetzungen auch mit Datenaustausch neue Chancen. Allerdings riskiert jeder auch damit, das der eigene Content von Suchmaschinen nicht mehr indexiert wird. Da \u00fcber Suchmaschinen nun einmal ca. 80 % aller Menschen zu der gew\u00fcnschten Information finden, sollte man sich also \u00fcberlegen ob man seinen einzigartigen Content leichtfertig mit anderen teilt!<\/p>\n<p>Da die genaue Bewertung von doppelten Inhalten durch Suchmaschinen nicht eindeutig gekl\u00e4rt ist, gilt diese Empfehlung auch f\u00fcr alle Shops, die ihre Artikel \u00fcber sogenannte Preissuchmaschinen bzw. Partnerprogramme oder Artikelverzeichnisse automatisch als Kopie von anderen Domains anbieten lassen. Nat\u00fcrlich ist dies ein veritables Gesch\u00e4ftsmodell, allerdings bleibt die Frage der Suchmaschinenvorteile oder Nachteile&#8230;.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Doppelter Content. Ein Problem f\u00fcr jeden ambitionierten Webmaster, der seine Seite bei Suchmaschinen gut indexiert sehen m\u00f6chte. Grunds\u00e4tzlich gilt wie \u00fcberall auch bei Suchmaschinen die Devise, das Qualit\u00e4t belohnt werden sollte. Aus diesem Grund scannen Suchmaschinen laufend die Inhalte von Millionen Webseiten und m\u00fcssen auf Basis einer Vielzahl von Parametern &#8222;entscheiden&#8220;, wo eine Webseite bzw. [&hellip;]<\/p>\n","protected":false},"author":8,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"footnotes":""},"categories":[1],"tags":[340,339],"class_list":["post-295","post","type-post","status-publish","format-standard","hentry","category-erfolgreich-im-internet","tag-doppelte-inhalte","tag-unique-content"],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/www.e-business-unternehmensberatung.com\/blog\/wp-json\/wp\/v2\/posts\/295","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.e-business-unternehmensberatung.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.e-business-unternehmensberatung.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.e-business-unternehmensberatung.com\/blog\/wp-json\/wp\/v2\/users\/8"}],"replies":[{"embeddable":true,"href":"https:\/\/www.e-business-unternehmensberatung.com\/blog\/wp-json\/wp\/v2\/comments?post=295"}],"version-history":[{"count":0,"href":"https:\/\/www.e-business-unternehmensberatung.com\/blog\/wp-json\/wp\/v2\/posts\/295\/revisions"}],"wp:attachment":[{"href":"https:\/\/www.e-business-unternehmensberatung.com\/blog\/wp-json\/wp\/v2\/media?parent=295"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.e-business-unternehmensberatung.com\/blog\/wp-json\/wp\/v2\/categories?post=295"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.e-business-unternehmensberatung.com\/blog\/wp-json\/wp\/v2\/tags?post=295"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}