ReachX Blog

5 Tipps zur Vermeidung von Duplicate Content

    Inhaltsverzeichnis:

5 Tipps zur Vermeidung von Duplicate Content

Sie haben sich auf die Fahne geschrieben, Inhalte für Ihre Website zu erstellen, dann ist hier noch nichts gegen einzuwenden. Doch genau an diesem Punkt passieren die häufigsten Fehler, die in Sachen Content gemacht werden können. Ein Otto-Normalverbraucher kann es nicht wissen, aber oft erstellt er doppelte Inhalte, die so für internen Wettbewerb und für eine Behinderung der eigenen Suchmaschinenoptimierung sorgen. Im nachfolgenden Artikel erfahren Sie fünf Schritte, wie Sie Duplicate Content vermeiden.

Was ist Duplicate Content?

Bei Duplicate Content spricht man von doppeltem Inhalt. Dieser kann intern, aber auch extern auftreten, d.h. auf unterschiedlichen Seiten innerhalb der eigenen Domain, aber auch auf unterschiedlichen Fremddomains. Duplicate Content wird von Suchmaschinen negativ bewertet und bewirkt so, dass Sie mit Ihrem Content keine Chance auf ein positives Ranking haben.

  1. Richtiger Aufbau der Seitenstruktur

Zu Beginn der Webseitenerstellung sollten Sie sich Gedanken darüber machen, zu welchen Inhalten Ihre Seite ranken soll. Eine klare Seitenstruktur ist das A&O für Ihren Erfolg. Bauen Sie sich mit Hilfe von diversen Tool, z. B.: Xmind, o. ä. die gewünschte Seitenstruktur auf, bevor Sie dies in Ihr System übertragen. So haben Sie die Gewissheit, keinen Duplicate Content zu generieren. Beachten Sie auch, dass es keinen Sinn ergibt Webseiten unter Synonymen anzulegen, denn die Suchmaschinen sind heute so gut gebaut, dass auch Synonym-Seiten als DC erkannt und quasi bestraft werden.

Eine klare und einfach durchdachte URL-Struktur trägt ebenfalls dazu bei, Duplicate Content zu vermeiden. Wenn Sie die URL, die Sie bei jeder Seitenanlage erstellen in einer Tabelle festhalten und dazu noch das Hauptkeyword notieren, entgehen Sie somit dem Problem, dass Sie sich aufgrund von intern angelegten Inhalten Duplicate Content erschaffen.

  1. Automatisierte Alerts von Google Analytics und Prüfung der SERPs

Es ist immer die Rede davon, dass Sie unique Content, also einzigartige Inhalte produzieren. Dies ist auch soweit richtig. Nur sind Sie nicht davor geschützt, dass Ihre Inhalte auch auf anderen Seiten, wenn auch in leicht abgewandelter Form erscheinen. Hierfür gibt es über Google diverse Möglichkeiten. So können über Google Analytics Alerts gesetzt werden, sodass Sie hier je nach Einstellung, täglich, wöchentlich, etc., eine Mail bekommen, die dann die Hostname Duplikate aufdeckt. Dank dieser Alerts haben Sie, je nach Intervall eine schnelle Auflösung, warum Sie mit Ihren Rankings nicht vorankommen. Diese Alerts richten Sie über die Benutzerdefinierten Berichte ein. Zu finden sind diese wie folgt:

  1. Google Analytics öffnen
  2. Konto auswählen
  3. In die Kontoverwaltung gehen
  4. Benutzerdefinierte Benachrichtigungen im Bereich Datenansicht wählen
  5. Neue Benachrichtigung einrichten
duplicate-content-google-analytics-alerts-contentklau-einstellungen

Neben dem Alarmsystem von Google Analytics gibt es  auch die Möglichkeit, manuell über das Suchfeld bei Google nach doppelten Inhalten zu suchen. Hierfür nehmen Sie einfach eine kurze Textpassage aus Ihrem Text und fügen diesen, in Anführungszeichen in den Suchschlitz ein. Jetzt bekommen Sie angezeigt, auf welchen Seiten sich die ausgewählte Passage befindet. Wenn nur Ihre Domain angezeigt wird, befinden Sie sich auf der sicheren Seite und alles ist in Ordnung. Sollten allerdings andere Seiten angezeigt werden, sollten Sie sich hier die Ergebnisse genau anschauen und reagieren. Wenn Sie Urheber des Textes sind, dann müssen bei Ihnen die Alarmglocken schrillen und Sie sollten sich einen Plan überlegen, wie Sie an die Seitenbetreiber herantreten. Oftmals hilft hier nur der Gang zum Rechtsanwalt.

duplicate-content-google-analytics-alerts-contentklau
  1. Doppelrankings in den Suchergebnissen – Adieu, dank Serplorer

Ein großes Thema neben der Struktur sind auch die Keywords, die auf den vorhandenen URLs ranken. Unter Zuhilfenahme von Tools, wie dem Serplorer lassen sich so auf einfache Art und Weise Doppelrankings ermitteln und eliminieren. Die Auswertung des Serplorer erfolgt über die Aufbereitung der Daten aus der Google Search Console. Der Serplorer zeigt so auf, welches Keyword für mehr als eine URL rankt. Wenn Sie nun eine solche Dopplung vorfinden, müssen Sie entscheiden, welche URL weiterhin für dieses Keyword ranken soll. Vergleichen Sie die Inhalte der beiden URL und führen Sie ggf. die beiden Inhalte zusammen. Vielleicht lassen sich die Inhalte aber auch weiterhin getrennt voneinander behalten und es bedarf nur einer internen Verlinkung mittels harten Ankers, also einer Verlinkung auf dem Keyword von einer zur anderen URL. Durch diese „harte“ Verlinkung suggerieren Sie der Suchmaschine, welcher Inhalt für welches Keyword in den SERPs gelistet werden soll. Sollten Sie sich allerdings entscheiden, eine der beiden Inhalte zu löschen, leiten Sie bitte per 301-Weiterleitung die nicht mehr benötigte URL weiter.

Weiteres zum Thema Weiterleitungen finden sie hier.

  1. Passwortschutz und noindex für Entwicklungsumgebung

Es ist so weit, Sie bauen auf einem Entwicklungsserver Ihre Seite auf, fügen alle Inhalte ein und stellen diese dann live. Soweit so gut. Doch was viele dann vergessen ist die Entwicklungsumgebung vor der Indexierung zu schützen. Dies ist ein Kardinalfehler den Sie hier begehen. Nicht nur das Sie jedem Ihre Entwicklungsumgebung preisgeben, nein Sie schaden sich selbst am meisten, durch Duplicate Content. Alle Inhalte sind nun sowohl mit der Test-, als auch mit der LIVE-URL in den Suchergebnissen vorhanden. Um den Brand jetzt zu löschen, bedarf es mehreren Dingen:

  1. Einrichtung eines Passwortschutzes für die Entwicklungsumgebung
  2.   Um einen Passwortschutz festzulegen, benötigen Sie den Zugriff auf Ihren Server. Bei einem Apache-Server müssen Sie eine .htpasswd Datei anlegen und die .htaccess um einige Zeilen erweitern.
  3. .htpasswd à Hier sind die Benutzernamen (Emil) und Passwörter (codiert) gespeichert. Getrennt werden die Inhalte per Doppelpunkt. Jede Zeile bekommt eine Benutzer/Passwort-Kombination.

Beispiel: Emil:$apr1$Ij3xUjpn$brueyPnDzUUth0jyBleVY0

  1. .htaccess à In der .htaccess muss der Pfad zur Datei, ein Authentifizierungsname, sowie die Anweisung „Require valid-user“ eingefügt werden.

Beispiel:

AuthType Basic

AuthName „Passwortgeschützter Bereich“

AuthUserFile /pfad/zur/datei/.htpasswd

Require valid-user

  1. In der robots.txt die Zeile „Disallow: /“ einfügen. Dies weist den Bot darauf hin, dass keine Indexierung erfolgen soll / darf.
  2. Einfügen des Meta-Robots- Tags „noindex“ in den Head-Bereich der HTML-Datei.

Daher ist es zu Beginn eines Projekts wichtig, bevor es Live geht, sich vor allen Unwägbarkeiten zu schützen und erst nach dem Umzug auf die Live-Domain alles auch für die Bots erreichbar zu machen.

  1. Canonicals helfen, sind aber kein Allheilmittel

Jeder kennt und nutzt Canonicals. Das ist richtig und gut. So lässt sich Duplicate Content ebenfalls vermeiden. Ein kleines Manko haben Canonicals allerdings schon. Die Suchmaschinen halten sich nicht immer an die direktive, die im Head des Dokuments steht und indexiert die eigentlich abgewertete Seite dennoch. Zudem können Canonicals auch gefährlich sein, denn wenn Sie interne Links auf Seiten gesetzt haben, die eigentlich nicht ranken sollen, schaden Sie sich hier erheblich selbst. Des Weiteren müssen Sie darauf achten, dass Seiten, die ein Canonical auf eine andere Seite haben, NICHT in der Sitemap aufgenommen werden. Die Sitemap ist nach der robots.txt das wichtigste Dokument für einen Bot. Ergo, wenn in der Sitemap die URLs vorhanden sind, werden auch die Cannicals außer Kraft gesetzt und die ganze Arbeit war umsonst.

Tool-Tipps zum Prüfen, ob Duplicate Content vorliegt

Es gibt einige Tools, die Sie zur Überprüfung von Duplicate Content einsetzen können.

–        Copyscape

o   Ein kostenloses Tool. Erreichbar unter: http://copyscape.com/. Das Tool gibt es in einer Free und Premium Variante. Hier müssen Sie nur die gewünschte URL eingeben, die geprüft werden soll und im Anschluss bekommen Sie das Analyseergebnis. Ist auf der Ergebnisseite kein Eintrag enthalten, sind Sie auf der sicheren Seite.

duplicate-content-copyscape

–        Siteliner

o   Der Siteliner ist wie Copyscape ein online Tool. Erreichbar ist der Crawler unter: http://www.siteliner.com/ und findet neben doppelten Inhalten auch noch Broken Links uvm. zum Vorschein.

duplicate-content-siteliner

–        Screaming Frog

o   Der Screaming Frog ist ein sehr mächtiges Tool. Hier kann ein Crawl der eigenen Seite gemacht werden, um internen Duplicate Content aufzuspüren, aber auch externer DC über den Upload einer Liste abgefragt werden. https://www.screamingfrog.co.uk/seo-spider/

–        Ryte.org

o   Ryte.org ist ein SaaS-Tool und bietet eine graphische Oberfläche. Ryte kümmert sich um die eingegebene Seite und spürt somit nur internen DC auf. https://de.ryte.com/

–        etc.

Fazit

Duplicate Content ist schlimm, wenn er vorhanden ist. Welche Maßnahmen Sie zur Vermeidung von Duplicate Content einsetzen ist voll und ganz Ihnen überlassen. Nur seien Sie sich bitte im Klaren, dass Sie immer mit der nötigen Sorgfalt an die Erstellung einer Website und des zu erstellenden Contents herangehen. Nehmen Sie sich die nötige Zeit, die richtigen, einzigartigen Inhalte zu erstellen. Beachten Sie aber bitte auch, dass Canonicals nicht immer die richtige Wahl sind. Egal wie groß Ihre Seite ist, behalten Sie den internen, aber auch externen Duplicate Content im Auge.

Gegen externen sind Sie nicht verantwortlich, den müssen Sie bekämpfen. Doch sollten Sie sich internen Wettbewerb aufbauen stehen Sie hierfür selbst gerade. Wenn es doppelte Inhalte gibt, ist das Kind noch lange nicht in den Brunnen gefallen. Durch die vorgenannten Tipps sind Sie auf einem guten Weg zu einer Website ohne internen und externen Duplicate Content. Schauen Sie sich die vorgeschlagenen Tools an und probieren Sie diese aus. Bei allen Tools gibt es entweder Test- oder Freeversionen. Finden Sie so für sich das passende Check-Tool heraus und bringen Sie so Ihre Webseite auf einen TOP-Stand. Geben Sie Duplicate Content KEIN zu Hause und haben Sie Ihre Webseite im Griff.

 

 

Über den Autor

Markus Fritzsche

markus-fritzsche

Markus ist SEO Berater bei der ReachX.

Markus Fritzsche ist SEO Berater für Projekte, z.B. in den Suchmaschinen Google und Bing. Er ist ausgebildeter Fachinformatiker mit der Fachrichtung Anwendungsentwicklung und seit nunmehr fünf Jahren in der Online-Marketing-Branche tätig. Dank seiner Ausbildung und den bisherigen Arbeitserfahrungen konnte er sich einen Einblick in die verschiedensten CMS- und Shop-Systeme verschaffen und ist so mit den Unwägbarkeiten, die ein System haben kann, bestens betraut.

Folgen Sie Markus Fritzsche auf den folgenden Portalen