Unser Offpage-Team lanciert in Absprache mit dem Publisher und dem Auftraggeber hochwertige Inhalte auf externen Webseiten und generiert somit einen Backlink für unseren Kunden. Wir überzeugen den Administrator oder die Redaktion von unseren journalistischen Content und bewegen ihn/sie dazu, diesen zu veröffentlichen.

SeoPlus.Expert pflegt Kontakte zu über 10.000 Webmastern und hält sich an die Google-Webmaster-Richtlinien.

Ranking der Offpage-Optimierung innerhalb der Suchmaschinenoptimierung:

  1. Onpage-Optimierung
  2. Content-Marketing
  3. Offpage-Optimierung

Vorteile einer professionellen Offpage-Optimierung:

  • Nachhaltige Verbesserung der Suchmaschinen-Rankings
  • Sichtbare Erfolge
  • Steigerung der Brand Awareness
  • Keine Abstrafung bei Updates des Google-Algorithmus (Panda…)

Leistungsspektrum im Bereich Offpage-Optimierung:

  • Offpage-Analyse: Rankings, Backlinkstruktur (Deeplink-, Follow-Nofollow-Ratio, Anker-Texte, Linkquellen, Linklage…)
  • Keyword-Recherche
  • Themenrelevante Webseiten ausfindig machen
  • Content für den Publisher: Inhalte mit Mehrwert (Bilder, Gliederung, Statistiken, Tabellen)
  • Regelmäßiges Reporting

Setzen Sie in Sachen Linkbuilding auf leidenschaftliche SEO-Vollprofis. Der Suchmaschinen-Riese analysiert und bewertet Artikel, Bilder…. Aus diesem Grund legen wir den Fokus auf ausgezeichneten Content mit Mehrwert-Garantie für den Leser. Wenn der Inhalt vom Nutzer gelesen (Geringe Absprungrate, Verweildauer…) und keine Manipulations-Hinweise ersichtlich sind, stuft der Suchmaschinen-Gigant diesen als relevant ein. Erst jetzt entfaltet der Backlink nachhaltig seine ganze Power.

Vertrauen Sie uns Ihre Linkbuilding-Aktivitäten an. Unser professionelles Vorgehen sichert Ihnen stetig steigende Rankings in den Suchmaschinen-Ergebnissen.

Angebot anfordern

 Qualitätsrichtlinien für das Linkbuilding (Offpage)


Das Internet ist das größte Informationsportal der Welt. Die „digitale Bibliothek“ beinhaltet wie jede andere gute Büchersammlung eine ganze Reihe an Informationsquellen, die wir in digitaler Form als Webseiten kennen. Und wie die meisten Bücher geben auch Webseiten Hinweise auf andere Informationsquellen oder stellen Querverweise auf für den Leser wichtige Inhalte her. Man beschreibt dieses Prinzip als Hypertextualität. Im Internet nennt man diese Verweise Backlinks.

Bevor aus dem Informationsportal Internet ein großes Marketinginstrument wurde, war die Bestimmung der Anzahl an Backlinks, also den eingehenden Links auf eine Webseite, eine effektive Methode für Suchmaschinen, Webseiten als relevant einzustufen. Ähnlich wie in der Wissenschaft Quellen, die häufig zitiert werden, als wichtige Referenz zu bewerten sind, gaben häufige Verlinkungen auf eine Website einen Hinweis auf relevanten Content. Das Ergebnis war eine bessere Platzierung in den Suchmaschinenergebnissen.

Seitdem das World Wide Web auch zu Marketingzwecken genutzt wird, ist das manuelle Optimieren dieser Ergebnisse eine sehr wichtige Arbeit im Online-Marketing und SEO. Auf einen sich eigentlich selbst regulierenden Prozess wird direkt Einfluss genommen. Und obgleich die Platzierung einer Webseite nicht zwangsläufig auch deren Erfolg bedeutet, ist die Wahrscheinlichkeit, dass Suchmaschinennutzer auf die vordersten Einträge der SERPs klicken und vom Leser zum zahlenden Kunden werden, doch wesentlich größer als auf den hinteren Plätzen.

Die bloße Anzahl von Backlinks genügt nicht mehr als Offpage-Faktor für ein gutes Suchmaschinen-Ranking.

Vor 2013 und dem Einspielen des Penguin-Updates 2.0 war es neben der Optimierung der Onpage-Faktoren einer Webseite, die Googles Algorithmus zur Bewertung einer Seite heranzog, das Ziel der Webmaster, möglichst viele Backlinks und somit ein besseres Ranking in den Google Suchergebnissen zu erhalten. Dies ist allgemein als Offpage-Optimierung bekannt. Doch nutzten viele das System rigoros aus. Web Spam war die Folge. Sogenannte Linkfarmen vergaben Unmengen an Backlinks. Der Content von Webseiten spielte dabei keine Rolle mehr. Was für Webseitenbetreiber aufgrund besserer Rankings von Vorteil war, ging zulasten der Nutzer.

Denn diese fanden immer weniger relevante Antworten zu ihren Suchanfragen. Für Google bedeutete dies letztendlich weniger Nutzer, somit auch weniger Daten und weniger Werbeeinnahmen. Ähnlich wie mit dem Panda-Update nun qualitativ hochwertiger und für den User sinnvoller Content von minderen Inhalten unterschieden und als Rankingfaktor herangezogen wird, konzentriert sich der Suchmaschinen-Algorithmus nun auch auf die Bewertung der Qualität von Backlinks, Linkstrukturen von Webseiten und weiteren Faktoren aus dem Offpage-Bereich wie der Linkwachstumsrate.

Der Suchmaschinenbetreiber ging sogar noch weiter und bestraft nunmehr Webseiten, die gezielt Web Spam betreiben, mit sogenannten Penalties, was eine Abstufung des Rankings oder sogar eine vollständige Entfernung der Webseite aus dem Index bedeuten kann.

Dennoch ist Offpage-Optimierung immer noch möglich – und notwendig. Bloß die Anforderungen an SEOs werden diffiziler. In den folgenden Ausführungen soll ein kurzer Einblick gegeben werden, was moderne Offpage-Optimierung bedeutet, welche Kriterien ein guter Backlink aufweisen muss und welche (Back-)Link-Struktur eine Webseite vorweisen sollte, um eine bessere Platzierung in den Suchergebnissen zu erzielen.


Wie Links zu bewerten sind und das Ranking beeinflussen

Einfach ausgedrückt, umschreibt die Offpage-Optimierung alle möglichen Maßnahmen, die als Effekt mehr eingehende Links, also Backlinks, auf eine Webseite generieren. Der Google Algorithmus zeichnet sich durch viele Offpage-Rankingfaktoren aus, die sich durch komplexe mathematische Berechnungen manifestieren. Leider sind diese Berechnungen nicht nur sehr kompliziert, sondern werden verständlicherweise auch nicht publiziert. Dies macht es für SEOs und Webmaster erforderlich, sich mit Kennzahlen auseinanderzusetzen, die (in-)direkt Aufschluss über die Bewertung der Linkprofile und somit auch der Qualität von Webseiten geben. Zur Vereinfachung dieses Prinzips gilt der Begriff Linkjuice, der all die Aspekte versinnbildlicht, die durch einen Hyperlink von einer Seite zu einer anderen Homepage weitergegeben werden.

Der PageRank (PR)

Das PageRank-Verfahren wurde von Lawrence Page entwickelt und war eines der ersten Ranking-Verfahren von Suchmaschinen. Da es sich bei der Page-Rank-Methode um eine wissenschaftliche Arbeit handelt, die jedem zugänglich war, ist davon auszugehen, dass sich auch viele andere Suchmaschinenbetreiber dem PageRank-Verfahren bedient haben – wenn auch in abgewandelter Form, da sich Lawrence Page das Verfahren patentieren ließ.

Um sich einen Wettbewerbsvorteil zu sichern, hat Google das Page-Rank-Verfahren mittlerweile etliche Male modifiziert. Noch vor einiger Zeit war das PageRank-Verfahren für den Suchmaschinenanbieter eine sehr wichtige Methode, um die Platzierung einer Website zu bestimmen. Der hieraus resultierende PageRank gab SEOs und Webseitenbetreibern eine wichtige Bewertungskennzahl zur Beurteilung der Linkpopularität einer Internetpräsenz.

PageRank ist nicht Linkpopularität

Wird vom PageRank gesprochen, assoziieren die meisten Menschen simultan den Begriff Linkpopularität. Das Verfahren der Linkpopularität wurde allerdings schon vor der PageRank-Methode von Suchmaschinen verwendet, war also auch für Google ein wichtiges Ranking-Kriterium.

Die Linkpopularität zieht zur Bewertung der Relevanz einer Webpräsenz ausschließlich die Anzahl, die Quantität der eingehenden Links, mit ein. Der PageRank hingegen konzentriert sich auch auf die Qualität eines Inbound-Links. Die Qualität wird dabei alleine aus der Vernetzung einer Webseite mit anderen als relevant eingestuften Webseiten extrahiert, nicht aus dem Content.

Auch wenn sich der PageRank aus vielen Faktoren zusammensetzt, ergibt sich der PageRank aus folgenden zwei Grundgedanken:

  • Je mehr Links einer Domain auf eine Webseite verweisen, desto höher die Relevanz (PageRank) der Seite.
  • Je größer die Relevanz der verweisenden Webseiten (PageRank), desto besser der weitere PageRank-Effekt.

PageRank ist nicht gleich PageRank

Wie bereits erwähnt, hält Google seine Algorithmen hinter verschlossener Tür. Und auch den eigentlichen PageRank gibt es für die Öffentlichkeit nur als ungenaue Kennzahl. Die Suchmaschine berechnet den PageRank exklusiv als internen PageRank. Hierbei handelt es sich um ein logarithmisches Maß, eine Zahl mit sehr vielen Nachkommastellen. Der externe PageRank, der in der bekannten Google-Toolbar einzusehen ist, liegt in einem linearen Maß zwischen 0 und 10 und ist eine aus dem internen PageRank abgeleitete, auf- oder abgerundete einstellige Zahl.

Übrigens gibt es nur relativ wenige Seiten, die den höchsten PageRank von 10 vorweisen können. Selbst www.google.com besitzt aktuell nur einen PageRank von 9. Die Website des Weißen Hauses, die unter www.whitehouse.gov zu erreichen ist, kommt als eine der sehr wenigen Seiten noch auf einen PageRank von 10.

Fiktives Beispiel:

Externer PageRank
Interner PageRank
00,0000000 bis 0,9900909
10, 9900909 bis 1,8811818
21,8811818 bis 2,7227272
......
109,0990990 bis 10,0000000

Um die Bedeutung des PR als Quantifizierungskennzahl für Webseiten drehen sich heutzutage viele Meinungen. Die Aussagekraft des PageRanks über das Suchmaschinen-Ranking einer Webseite ist aus vielen Gründen jedoch nicht so extrem, wie sie von vielen noch immer gewichtet wird. Aus folgenden Gründen:

  • Der externe PR entspricht nicht exakt dem internen PR. Aus teils starken Abweichungen in den Nachkommastellen bewertet die Suchmaschine Webseiten differenziert – und das, obwohl der externe PageRank derselbe ist.
  • Der PageRank wird nur in unregelmäßigen Abständen aktualisiert. Der aktuelle externe PR entspricht also nur in seltensten Fällen den aktuellen Berechnungen zum internen PageRank.
  • Google bestätigte, den PageRank zum Teil willkürlich zu wählen: Matt Cutts: “We return random PageRank data if we feel like to.” (2008)
  • Der PageRank hat nur noch einen geringen, wenn wohl auch vorhandenen Einfluss auf die Platzierung einer Website, da der Algorithmus mittlerweile mehrere hundert Faktoren berücksichtigt.

Wichtig: Auch wenn der PageRank für Webmaster nur noch wenige Rückschlüsse über die Platzierung einer Webpräsenz zulässt, ist der interne PR für den Suchmaschinenbetreiber noch immer eine Qualitätskennzahl zur Bewertung der Relevanz einer Seite. Die rückläufige Entwicklung des externen PageRanks kann aber aus anderer Sicht auch für Webmaster interessant sein:

  1. Womöglich wurde die eigene Website manuell abgestraft.
  2. Backlinks aus verlinkenden Seiten wurden eventuell entfernt.
  3. Verlinkende Seiten haben PR verloren (Grund a oder/und Grund b), was wiederum die Linkpower des Backlinks schwächt.

Domainpopularität beerbt Linkpopularität

Um den zahlreichen Manipulationsversuchen vieler Linkfarmen entgegenzuwirken, die eine Onlinepräsenz gleich mehrfach von einer Domain aus verlinkten und somit die Linkpopularität und indirekt den PageRank erhöhten, hat der Suchmaschinen-Primus einige wichtige Änderung vorgenommen. Von nun an wurden mehrere Links einer Domain auf eine andere Website dem Gewicht eines einzigen Links gleichgesetzt. Aus der Linkpopularität wurde die Domainpopularität. Auch wenn es nicht ganz ersichtlich ist, wie sehr die Domainpopularität die Platzierung einer Seite beeinflusst, ist davon auszugehen, dass die Linkpopularität nur noch eine untergeordnete Rolle als Rankingfaktor einnimmt, die Domainpopularität aber aus der SEO-Perspektive weitaus relevanter ist.

Beispiel:

  • Eine Domain verlinkt auf Webseite A = Domainpopularität von 1
  • Zwei Domains verlinken auf Webseite A = Domainpopularität von 2
  • 1000 Domains verlinken auf Webseite A = Domainpopularität von 1000

Aber:

  • Ein Backlink von Domain A auf Webseite B = Linkpopularität von 1 / Domainpopularität von 1
  • Zwei Backlinks von Domain A auf Webseite B = Linkpopularität von 2 / Domainpopularität von 1
  • 50 Backlinks von Domain A auf Webseite B = Linkpopularität von 50 / Domainpopularität von 1

Der TrustRank (TR)

Eine weitere Kennzahl zur Quantifizierung einer Website ist der TrustRank. Der TR wurde von zwei Stanford-Mitarbeitern entwickelt und ebenfalls von Google patentiert. Ausgangspunkt für den TrustRank bilden sogenannte Seed-Sites, die eher als Authorities bekannt sind. Wie genau Seed-Sites bestimmt werden, ist nicht ganz klar. Allerdings ist davon auszugehen, dass die Einstufung einer Seite als Authority zum Teil manuell erfolgt. Hierfür bedient sich der Suchmaschinenanbieter einer grundsätzlichen Annahme:

Seed-Sites verlinken nicht auf Spam-Seiten!

Authorities oder Seed-Sites sind Webseiten, denen die Suchmaschine (oder entsprechende Quality-Rater) das Vertrauen ausspricht. Verlinken diese Webseiten auf andere Seiten, geht die Suchmaschine davon aus, dass es sich bei der verlinkten Webseite ebenfalls um eine vertrauenswürdige Internetpräsenz handelt. Grundsätzlich können nur Seed-Sites den höchsten Trust-Score „vererben“. Je weiter sich eine Verlinkung vom ursprünglichen Trust-Geber entfernt, desto geringer fällt der Trust-Score aus. Und je geringer der Trust-Score, desto weniger TrustRank kann eine Website vorweisen.

Trust-Score-Pyramide (Offpage)

Webseiten mit einem hohen Trust-Score gibt es verhältnismäßig wenig.

Im Gegensatz zum PageRank gibt es für den TrustRank keine offizielle Anzeige, weswegen der TR einer Website nur schwierig direkt zu bestimmen ist.

Der TrustRank kann allerdings nicht nur steigen, sondern durch ein fragwürdiges Backlink-Profil auch sinken. Verlinken Webseiten mit relativ hohem TrustRank auf andere Webseiten mit einem vergleichsweise sehr niedrigen TR, sinkt der TrustRank der linkgebenden Seite. Gerade in der Optimierung der Offpage-Kriterien spielen Links von Seed-Sites natürlich eine besondere Rolle.

Wichtige User-Signals

Das Verhalten der Nutzer zählt streng genommen nicht zu den relevanten Faktoren bei der Offpage-Optimierung. Dennoch wertet Google die sogenannten User-Signals aus und leitet aus diesen Erkenntnissen Bewertungskriterien einer Onlinepräsenz ab. Aus diesem Grunde sollen auch wichtige Nutzerkennzahlen kurz angesprochen und erläutert werden, da sie für funktionierende Maßnahmen im Bereich SEO durchaus relevant sind.

Die Click-Popularity

Zur Qualitätsbeurteilung einer Website zieht die Suchmaschine auch das Klickverhalten der Nutzer heran. Einfach ausgedrückt bedeutet dies:

Je öfter eine Seite in den Suchergebnissen angeklickt wird, desto höher wahrscheinlich auch die Relevanz der Seite.

Mithilfe der Click-Popularity möchte der Suchmaschinenanbieter algorithmische Ungenauigkeiten ausgleichen. Werden gewisse Links in den SERPs also häufiger angeklickt als besser gelistete Seiten, kann der Algorithmus das Ranking trotz anderer algorithmischer Berechnung zugunsten der Seite mit der höheren Click-Popularity verschieben. Gemessen wird die Click-Popularity in der Click-Through-Rate (CTR), die natürlich auch für eine zielgerichtete SEO berücksichtigt werden sollte.

Die Absprungrate / Bounce-Rate

Ein mittlerweile ebenfalls stärker beachtetes Kriterium ist die Verweildauer der Nutzer auf einer Zieldomain, die durch die Suchergebnisse gefunden wurde. In diesem Fall wird von Stickiness gesprochen. Beliebter und weitaus bekannter ist aber die Absprungrate oder auch Bounce-Rate. Hier wird ein prozentualer Wert der User ermittelt, die von einer Zieldomain wieder zurück zu den Suchergebnissen springen. Gemessen wird die Absprungrate als Return-to-SERP-Rate (RTS), die natürlich auch in der Suchmaschinenoptimierung eine Rolle spielt.


Linkbuilding – Maßnahmen zur Generierung von Backlinks

Es gibt also einige Kennzahlen, anhand derer es Webmastern möglich ist zu erkennen, wie gut oder schlecht der Algorithmus die Linkstruktur und somit zum Teil auch die Qualität einer Website bewertet und um daraus Rückschlüsse über aktuelle Ranking-Positionen der Seite zu ziehen.

Nun ist es für Webmaster aber auch relevant zu wissen, mit welchen Offpage-Maßnahmen sie die Backlink-Struktur einer Website aktiv beeinflussen können, um letztendlich mehr Vertrauen von Google zu erlangen und die Suchergebnisse der Suchmaschine zu verbessern. Hierbei können Webmaster sowohl direktes als auch indirektes Linkbuilding betreiben.

Grundsätzlich ist es zur Offpage-Optimierung substantiell, sich ein möglichst natürlich wirkendes Linkprofil zuzulegen. Denn rein prinzipiell ist jede aktive Maßnahme zum Aufbau von Links, die allein auf eine Optimierung der Suchmaschinen-Ergebnisse abzielt, unnatürlich, gilt als Manipulationsversuch, verstößt gegen die Webmaster-Richtlinien und kann potenziell abgestraft werden.

Anorganisches Linkwachstum ist für den Algorithmus in der Regel ein eindeutiges Indiz für Manipulation. Linkbuilding muss als Teildisziplin der SEO demnach behutsam, geduldig und mit der notwendigen Akribie betrieben werden. Je nach Branche und den individuellen Voraussetzungen einer Webseite ist es notwendig, differenzierte Linkbuilding-Strategien auszuarbeiten.

Beim Linkbuilding ist auf eine natürliche Linkwachstumsrate zu achten. Durchschnittlich wertet der Algorithmus ein Linkwachstum zwischen acht und 13 Prozent pro Monat als natürlich. Branchenspezifische Ausnahmen sind möglich. Exemplarisch sind News-Portale zu benennen, die zum Beispiel über seltene Umweltkatastrophen berichten und hierdurch einen kurzzeitigen Schub der Linkwachstumsrate verzeichnen können.

Indirektes Linkbuilding

Um an möglichst viele gute Backlinks zu gelangen und die Domainpopularität zu optimieren, ist es die wohl natürlichste Methode, guten Content bereitzustellen, den andere Webmaster freiwillig verlinken – ohne dass für diesen Link bezahlt wird oder irgendeine andere Art der Vergütung oder des Tausches stattfindet. Hier bedient sich der Webmaster eines Prinzips, dem sich das Internet seit jeher verschrieben hat. Nämlich lesenswerten und informationsbasierten Content für viele Nutzer anzubieten. Die Vermarktung/Bekanntmachung des Contents läuft dann fast ganz automatisch. Genau dieses System ist auch der kennzeichnende Mechanismus beim modernen Content-Marketing.

Die Realität sieht jedoch oftmals anders aus. Manchmal sogar notgedrungen. Denn das Internet besteht nicht nur aus Blogs oder Nachrichtenmagazinen. Online-Shops oder Webpräsenzen von Unternehmen haben es wesentlich schwerer, stets guten und aktuellen Content bereitzustellen. Aus diesem Grunde ist aktives, direktes Linkbuilding unumgänglich und auch gewissermaßen gerechtfertigt, da solche Seiten ansonsten nur geringe Chancen auf eine gute Backlink-Struktur und gute Platzierungen in Suchmaschinen hätten.

Direktes Linkbuilding

Direkter Linkaufbau bedeutet, dass Webmaster eigenständig eingehende Links setzen oder auch setzen lassen. Als unnatürlich und manipulativ könnte dieses Vorgehen streng genommen und basierend auf den Webmaster-Richtlinien des Suchmaschinenanbieters bezeichnet werden, da es primär darauf abzielt, die Suchmaschinen-Platzierung zu verbessern.

Möglichkeiten Links zu generieren (Offpage)

Es gibt gute und weniger gute Möglichkeiten Links für den Kunden zu generieren. Wir von SeoPlus.Expert setzen auf ausgezeichnete Artikel und Kreativität.

Strafbar ist dieses Vorgehen allerdings nicht. Bezahlte redaktionelle Artikel, die versteckte Werbung enthalten, müssen in Deutschland offiziell als Werbung gekennzeichnet werden (häufig in Form von „Sponsored Post“), um nicht gegen das Wettbewerbsrecht zu verstoßen. Aktives Linkbuilding zu betreiben, ist allerdings nicht gesetzeswidrig, sondern verstößt „lediglich“ gegen die Richtlinien von Google, einem Privatunternehmen. Dies soll aber selbstverständlich nicht bedeuten, dass es legitim ist, sämtliche Richtlinien zu missachten. Denn immerhin weiß der US-Konzern gezielt gegen Manipulationsversuche vorzugehen. Positive Effekte auf das Suchmaschinen-Ranking haben diese offensichtlichen Taktiken also nicht.

„Offensichtlich“ ist hierbei das entscheidende Stichwort. Natürlich ist sich auch den Betreibern von Suchmaschinen bewusst, dass keine Richtlinie aktives Linkbuilding wirklich verhindern kann. In einem gewissen Maße wird dies also auch toleriert, solange dabei grundlegende Qualitätsrichtlinien beachtet werden.

Wie bereits angeführt, achtet Google sehr auf natürlichen Linkaufbau. Die Suchmaschine fertigt von jeder Webpräsenz konkrete Backlink-Profile an und weiß über das Linkwachstum sehr genau Bescheid. Hieraus wird bereits ersichtlich, dass effektiver und nachhaltiger Linkaufbau nicht kurzfristig erfolgen kann, sondern hierfür ein längerfristiges und strukturiertes Konzept vonnöten ist.

Artikelkauf / Gastartikel / Guest-Blogging / Hosted Content

Artikelkauf, Hosted Content oder Guest-Blogging ist eine noch immer häufig angewandte Methode aktiver Linkbuilding-Maßnahmen zur Offpage-Optimierung einer Website. Gekauft wird ganz einfach ein Backlink auf einem Portal, der in diesem Fall in einem Artikel/Gastartikel eingepflegt ist, welcher entweder vom Webseitenbetreiber selbst oder vom buchenden Kunden konzipiert wird. Anfang 2014 hat sich Matt Cutts nochmals zum Linkbuilding durch Blog- oder Gastartikel geäußert und darauf hingewiesen, dass Guest-Blogging zum Linkaufbau zukünftig vom Algorithmus erkannt und schon bald keine positiven Effekte mehr hätte. Diese Maßnahme war aufgrund zahlreicher Spam-Versuche durch minderwertige Artikel zur Qualitätssicherung der Suchergebnisse notwendig.

Ein Fakt bleibt aber dennoch bestehen:

Wenn ein bezahlter Artikel sämtlichen Qualitätsrichtlinien von Google entspricht, dann dürfte ein integrierter Follow-Link auch keinen Anlass zur Abstrafung geben. Denn der Suchmaschinenanbieter wäre in diesem Fall gar nicht imstande, einen gekauften Artikel samt Link von einem natürlich erstellten Text inklusive Hyperlink zu unterscheiden. Und warum sollten Suchmaschinen einen Artikel verbieten, der leserbasierten Mehrwert bietet – selbst wenn dieser zum Linkaufbau verwendet wird?

Eine entscheidende Frage drängt sich hierbei selbstverständlich auf. Wie und wo lässt sich ein Backlink optimal platzieren, um nicht durch Spam-Filter entdeckt zu werden und positive Effekte auf die Platzierung in der Suchmaschine zu erzielen?

Selbstverständlich müssen zur Bewertung einer Internetpräsenz auch Faktoren herangezogen werden, die mitunter nicht durch Zahlen messbar und somit nur schwierig zu evaluieren sind. Mit ein wenig Aufwand lassen sich jedoch ungefähre qualitative Tendenzen ermitteln, die heute als wichtige Faktoren in der SEO genutzt werden.

Messbare Faktoren und Kennzahlen:

  • Alter der Domain – Die Domain sollte seit mindestens einem Jahr bestehen.
  • PageRank - Zwar hat der PageRank, wie bereits erwähnt, nur noch eine untergeordnete Bedeutung. Zur Bewertung einer Seite, auf der ein Backlink platziert werden soll, ist er dennoch sinnvoll. So lässt sich schnell erkennen, ob die Domain bei niedrigem PageRank womöglich mit einer Abstrafung belegt wurde. Zwar muss dies nicht der Fall sein, falls sich der Verdacht jedoch erhärtet, ist von einem Backlink besser abzusehen. Andersrum kann ein hoher PageRank auch für die Linkpower von Backlinks dieser Quelle stehen.
  • Traffic – Ein Backlink hat nicht nur positive Eigenschaften auf das Suchmaschinen-Ranking, sondern leitet unter Umständen auch eine Menge neue Leser und Kunden auf die eigene Seite. Je höher der Traffic der Linkquelle, desto höher die Wahrscheinlichkeit neuer Leser und Kunden.
  • Sichtbarkeit – Ein hoher Sichtbarkeitsindex ist oft ein Hinweis darauf, dass die Seite selbst viele gute Rankings aufweist, ein gut ausgebautes Backlinkprofil aufweist und demnach eine Menge Linkpower besitzt. Umgekehrt heißt dies aber nicht, dass Backlinks von Seiten mit geringer Google-Sichtbarkeit schwach sein müssen. Dies gilt vor allem für Nischen-Seiten.
  • Index - Die linkgebende Seite sollte sich im Suchmaschinen-Index befinden und nicht aufgrund von Spam-Maßnahmen deindexiert worden sein.
  • Linkprofil - Die verlinkende Seite hat nur wenige ausgehende Links. Hierdurch besitzt ein einzelner Backlink mehr Gewicht, da der Linkjuice nicht auf andere Backlinks aufgeteilt wird.

Nicht direkt messbare Faktoren:

  • Aktivität und Freshness – Artikel sollten auf der linkgebenden Seite regelmäßig veröffentlicht werden. Als Richtwert gilt alle zwei Wochen ein Artikel. Älterer Content muss stets aktualisiert werden.
  • Themenrelevanz – Google bewertet Backlinks, die thematisch zum inhaltlichen Schwerpunkt einer Webseite passen, besser als themenfremde Links – wertet diese womöglich sogar als Spam-Versuch.
  • Design – Das Design der linkgebenden Seite sollte auch visuell einen seriösen und ansprechenden Eindruck hinterlassen.
  • TrustRank - Die linkgebende Seite ist bestenfalls eine Domain mit hohem TrustRank oder sogar eine Seed-Site.
  • Onpage-Faktoren - Die linkgebende Domain sollte eine richtlinienkonforme Onpage-Optimierung aufweisen.
  • Content – Die verlinkende Seite weist bestenfalls ausschließlich hochwertigen Content auf. Auch der Link sollte in einem ansprechenden Artikel mit Mehrwert, der für Leser und nicht für die Suchmaschine geschrieben ist, eingebettet sein. Bezahlte Artikel sollten nicht direkt als Werbung ersichtlich sein.
  • Linkbezeichnung - Platzierte Backlinks werden von Suchmaschinen nur verfolgt, wenn sie mit >>follow<< gekennzeichnet sind. >>nofollow<<-Links werden von Googles Webcrawlern nicht verfolgt und besitzen nur eine geringe Wertigkeit.
Linkquellen-Pyramide (Offpage-Optimierung)

Wir versuchen für unsere Kunden ausschließlich hochwertige Links von vertrauenswürdigen Portalen zu erhalten.

Anchor-Text

Als Anchor-Text wird der Linktext bezeichnet. Vor dem großen Penguin-Update 2.0 war es für viele Webmaster gang und gäbe, ausschließlich „hart“ zu verlinken. Dies bedeutete, dass möglichst viele Money-Keywords im Linktext integriert wurden. Seit dem großen Update reagiert der Algorithmus auf diese Maßnahmen sehr empfindlich. Beim Artikelkauf ist es somit ratsam, sich auch konkret mit einem adäquaten Linktext zu beschäftigen und diesen gegebenenfalls vorzugeben, falls der Artikel nicht eigenständig konzipiert wird.

  • Brand: Hier wird die „Brand“, also die Marke verlinkt. Google wertet dieses Verfahren als natürlich.

Beispiel: Volkswagen

  • URL: Wie zu erwarten, ist hier die URL einer Webseite zu verlinken. Auch dies ist für die Suchmaschine sehr natürlich.

Beispiel: www.Volkswagen.de

  • Compound: Gemeint sind Phrasen, die aus mehr als zwei Wörtern bestehen und häufig ein oder mehrere Keywords enthalten. Häufig bestehen Compound-Keywords aus einer Mischung aus Brands und Money-Keywords.

Beispiel: günstige Versicherungen vergleichen oder Zubehör für Samsung Galaxy kaufen

  • Money: Hier zeichnet sich der Linktext durch ein Keyword aus, das in der Regel ein sehr hohes Suchvolumen vorweisen kann. Auch überdurchschnittliche CPC-Werte bei AdWords sind ein Hinweis. Money-Keywords können sich auch aus zwei Wörtern zusammensetzen.

Beispiel: Kaffeemaschine oder Smartphone kaufen

  • Sonstige: In diese Kategorie fallen alle Wörter oder Wortgruppen, die in keiner direkten Verbindung zum Keyword stehen und als „sinnentfremdet“ angesehen werden dürfen.

Beispiel: hier oder diese Webseite oder Bilder-Links ohne Alt-Attribut

Für Google wirken in der Regel Verlinkungen der URL oder der Brand natürlich. Doch auch hier gilt Vorsicht. Denn häufig enthält auch eine Marke oder eine URL ein Money-Keyword, weswegen dieses für Suchmaschinen nur schwer von einem reinen Money-Keyword zu unterscheiden ist. In diesem Fall kann es ratsamer sein, auf Linktexte zurückzugreifen, die unter „Sonstige“ fallen. Es liegt nahe, dass der natürlichste Anchor-Text sich aus mehr als zwei Wörtern sowie einer Konstellation aus Brand oder URL und „Sonstigen“-Wörtern zusammensetzt.

Beispiel: Näheres zu Volkswagen lesen Sie hier.

Linktausch und Linkpartnerschaften

Erfahrene Webmaster, die bereits lange im Bereich Suchmaschinenoptimierung tätig sind, werden wissen, wie schwierig es mittlerweile sein kann, überhaupt an Backlinks zu gelangen. Viele Webseiteninhaber, die gut rankende Domains besitzen, reagieren mitunter ziemlich genervt, wenn sie Anfragen erhalten und entwickeln mit der Zeit eine Art Resistenz gegen Backlink-Anfragen. Die Ursache liegt hierfür zum einen in der Masse. Denn es ist mitunter keine Seltenheit, dass Webseitenbetreiber zum Teil 10 bis 20 Anfragen pro Tag beantworten müssen. Zum anderen ist es die Qualität. Denn im Regelfall handelt es sich um eher fragwürdige Backlink-Wünsche. Zumeist soll auf Spam-Seiten verlinkt werden, die nur minderwertigen oder themenfremden Content bereitstellen. Und wer auf solche Seiten verlinkt, der baut sich zunehmend eine Bad Neighbourhood auf, die negative Auswirkung auf das eigene Ranking hat.

Nicht jeder ist bereits länger am Markt tätig und hat ein breit gefächertes und vertrauenswürdiges Netzwerk an Freunden oder Geschäftspartnern und –kontakten, auf die er beim Linkaufbau zurückgreifen kann. Gerade kleinere Seiten, die von Privatpersonen unterhalten werden, haben es hier schwer, denn mittlerweile fallen für Backlinks von guten Webseiten respektable Preise an, die nur von gewerblichen Kunden bezahlt werden können.

Eine deswegen immer noch beliebte Methode ist der Aufbau einer oder mehrerer Linkpartnerschaften, die sich zumeist durch den Linktausch auszeichnen. Konkret bedeutet dies: Platziert Seite B einen Link zu Seite A, dann wird im Gegenzug auch Seite A Seite B verlinken. Doch genau dies birgt eben auch viele Gefahren.

Linktausch wird in der Regel nicht von Webseiten mit hoher Reputation angeboten, sondern eher von kleineren, privat geführten Projekten. Linktausch-Netzwerke bewegen sich dicht unterhalb des Google-Radars. Eine gute SEO-Agentur wird Linktausch daher nicht als Offpage-Optimierungsmaßnahme in Betracht ziehen, weswegen hier auch keine Empfehlung für diese Art des Linkbuildings ausgesprochen, sondern lediglich das Prinzip erklärt werden soll.

Reziproke Links

Google ist mittlerweile imstande, den direkten Linktausch zu erkennen. Reziproke Links sind in der gesamten Linkstruktur des Internets aber eher eine statistische Seltenheit und somit sehr auffällig. Der direkte Querverweis zweier Webseiten zueinander mag noch kein Problem darstellen, wenn dies einmal geschieht. Immerhin ist es durchaus möglich, dass reziproke Links – wenn auch selten – auf natürliche Art und Weise entstehen. Je öfter dies aber geschieht, desto konkreter das Muster. Gegenseitige Verlinkungen sind ein häufiger Grund für eine Penalty und somit nicht zu empfehlen.

Satelliten-Projekte

Um reziproke Links weitestgehend einzudämmen, hat es sich als effektive Maßnahme herausgestellt, sogenannte Satelliten-Projekte zu betreiben. Hierbei handelt es sich um Zweitdomains, die neben einer Hauptdomain verwaltet werden. Von der Zweitdomain wird bei einem Linktausch die Rückverlinkung organisiert. Das bedeutet konkret:

  • Domain A verlinkt auf Domain B.
  • Der Besitzer von Domain B verlinkt nun nicht von Domain B zurück nach Domain A, sondern nutzt Domain C und vermeidet somit den reziproken Link.

Allerdings ist die Suchmaschine mittlerweile auch in der Lage, den versteckten Linktausch zu entdecken. Beim Betreiben von Satellitenprojekten ist es also ratsam, den Suchmaschinen die Feststellung eines konkreten Zusammenhangs einer Hauptdomain und eines Satellitenprojekts zu erschweren, indem die Zweitdomain beispielsweise auf einen anderen Namen registriert wird – falls sich überhaupt jemand für solche Vorhaben finden lässt.

Einem ähnlichen Prinzip bedient sich das Link-Wheel, bei welchem ein breites Netzwerk an vernetzten Webseiten aufgebaut wird, die jeweils auf eine zentrale Money-Webseite verlinken. Auch wenn sich dieses System zum Teil noch als effektiv zur Verbesserung der Suchmaschinen-Platzierung herausstellt, straft Google auch diesen Manipulationsversuch ab.

Ein grundlegendes Problem besteht allerdings in der Wertigkeit der unterschiedlichen Domains. Für gewöhnlich ist ein Backlink von einer Hauptdomain mehr Wert als von einem Satellitenprojekt. Linktausch-Partner geben sich also nur selten mit Backlinks von Satellitenseiten zufrieden.

Linkkauf und Linkmiete

Die wohl auffälligste Methode, gegen die Google-Richtlinien zu verstoßen, ist der Linkkauf. Und obwohl Google dieses Vorgehen rigoros bestraft, ist Linkkauf in manchen Kreisen noch immer gängige Praxis. Doch worin unterscheidet sich der einfache Linkkauf nun vom Artikelkauf oder Hosted-Content-Verfahren? Letztendlich werden auch hier Links gekauft.

Die Antwort findet sich in der Regel in den Qualitätskriterien. Die wesentlichen Qualitätsrichtlinien, die eine Webpräsenz aufweisen sollte, um für einen Backlink überhaupt infrage zu kommen, werden hier meistens nicht erfüllt. Solche Seiten sind auch als unechte Projekte bekannt. Sie dienen alleine dem Zweck, Links zu verkaufen, was bereits ein direkter Verstoß gegen die Google-Richtlinien ist. Von hochwertigem Content oder Mehrwert für den Leser ist hier in der Regel keine Spur. Backlinks werden oftmals auch gar nicht in einen Fließtext eingebettet, sondern befinden sich beispielsweise aufgelistet mit anderen Links im Footer-Bereich, was die Wertigkeit des Links extrem abschwächt.

Zu unterscheiden ist der Linkkauf, wie bereits erwähnt, von echten Projekten und unechten Projekten. Auch Blogger, Portale oder Nachrichtenmagazine bieten den Linkkauf an – erfüllen dann aber in der Regel die wichtigsten Qualitätsrichtlinien, weswegen hier eher von Artikelkauf die Rede sein muss.

Ein ebenfalls sehr fragwürdiges Modell ist die Linkmiete. Hier wird ein Link eben nicht gekauft, sondern häufig in Form einer monatlichen Gebühr gemietet. Die Sinnhaftigkeit dieser Methodik ist stark infrage zu stellen. Immerhin geht der Ranking-Effekt des Backlinks nach Ende des Mietverhältnisses wieder verloren. Gerade kleinere Projekte sollten sich auf nachhaltiges Linkbuilding fokussieren. Denn selbst aktuell noch nicht ganz so starke Backlinks können nach gewisser Zeit ihre ganze Linkpower entfalten.


Das Penguin-Update 2.0

Der Mai 2013 gilt unter SEOs als der Monat des großen Paradigmenwechsels in der Suchmaschinen- respektive Offpage-Optimierung. Es war der Monat, da Google das Penguin-Update 2.0 einspielte. Zielsetzung des Updates war und ist es, rigoros gegen Web Spam vorzugehen, was sowohl die Identifizierung als auch die Beseitigung solcher Webseiten aus den Suchergebnissen meint.

Das Penguin-Update 2.0 war das letzte große Update, das bereits im April 2012 mit dem Penguin-Update 1.0 seinen Anfang nahm und zwischenzeitlich durch die Data-Refreshes 1.1 und 1.2 aktualisiert wurde. Selbstverständlich hat Google auch bei diesem Update nicht direkt bekanntgegeben, welche Faktoren durch die Algorithmus-Aktualisierung betroffen sind. Die Analysen von vielen Webseiten, die extreme Ranking-Abstürze zu verzeichnen hatten und anscheinend vom Penguin-Update betroffen waren, ließen jedoch den Schluss zu, dass neben einigen anderen Faktoren hauptsächlich die Backlink-Struktur einer Website durch Penguin ausgewertet und in speziellen Fällen auch abgestraft wird.

Vor dem Jahr 2013 war Linkbuilding für SEO-Agenturen und auch deren Kunden ein relativ genau skalierbares Modell. Vertraglich ließ sich vereinbaren, wie viele Backlinks monatlich gesetzt würden. Hieraus ergab sich ein recht gut überschaubares und für beide Seiten effizientes Aufwand-Ertrags-Verhältnis, das sich fast immer in guten Rankings manifestierte. Seit dem Penguin-Update hat Linkbuilding und SEO generell jedoch extrem an Komplexität dazugewonnen. Unzählige Linknetzwerke wurden abgestraft, auf die heutzutage nicht mehr zurückgegriffen werden kann.

Aktiver oder direkter Linkaufbau funktioniert nur noch, indem beim Aufbau eines Link-Profils grundsätzliche Qualitätsrichtlinien eingehalten werden. Die indirekte Methode (Content-Marketing) ist heutzutage das Maß aller Dinge.

Welche Richtlinien für den optimalen Backlink, basierend auf den Auswirkungen des Penguin-Updates, herangezogen werden sollten, wurde bereits unter der Rubrik „Artikelkauf“ ausführlich aufgelistet. Nun soll es darum gehen, wie überhaupt zu erkennen ist, dass eine Webseite vom Penguin-Update betroffen ist, was sich dagegen tun lässt und wie eigentlich ein natürliches Link-Profil einer Webpräsenz aussehen sollte.

Penalties und Abstrafungen erkennen

Monitoring mithilfe unterschiedlicher SEO-Tools ist relevant, um überhaupt herausfinden zu können, ob eine Webseite von einer Penguin-Abstrafung betroffen ist. Sogenannte Penalties oder Abstrafungen werden von Google zum Teil manuell vorgenommen, können jedoch auch algorithmischer Natur sein. Algorithmische Bestrafungen lassen sich nur erkennen, indem die auffällige Änderung verschiedener Kennzahlen in Abhängigkeit zeitlicher Faktoren bewertet wird. Bei manuellen Abstrafungen benachrichtigt der Suchmaschinenanbieter den Webseitenbetreiber zumeist persönlich.

Wichtig: Google benachrichtigt Webseitenbetreiber über eine manuelle Abstrafung in der Regel über die Webmaster Tools. Neben den vielen nützlichen Informationen, die diesem Tool zu entnehmen sind, ist auch dieser Fakt ein wesentlicher Grund, weswegen jeder Webmaster seine Seite in den Webmaster Tools anmelden sollte.

Die wichtigsten Kennzahlen / Faktoren

Bei algorithmischer Abstrafung sind wie erwähnt die Kennzahlen aus dem Monitoring relevant, um eine Penalty überhaupt als solche identifizieren zu können. Erst danach lassen sich mögliche Gegenmaßnahmen wie der Linkabbau umsetzen.

  • PageRank: Es wurde in diesem Artikel bereits häufiger erwähnt, dass ein plötzlicher Abfall des PageRanks ein Indiz dafür ist, dass die Webseite abgestraft wurde. Den PageRank kann Google allerdings auch manuell senken. Dies hat folgenden Grund: Der PageRank gilt unter Link-Käufern und –Verkäufern als Maßstab für die monetäre und qualitative Wertigkeit eines Backlinks dieser Seite. Sinkt also der PageRank, macht die Suchmaschine einen möglichen Linkkauf von dieser Website unattraktiver.
  • Ranking-Verluste: Bei dieser Penalty verliert eine bestimmte Seite an Rankingplätzen in den Google Suchergebnissen. Auf die algorithmisch berechnete Platzierung erfolgt in diesem Fall eine Penalty, die das eigentliche Ranking um mehrere Plätze nach hinten verschiebt. In diesem Fall wird auch vom Deranking gesprochen.
  • Deindexierung: Der Worst Case für alle Webmaster ist aber die komplette Deindexierung aller Seiten aus dem Google Index. Diese extremste Variante der Abstrafung setzt der Suchmaschinenbetreiber nur ein, wenn über einen langen Zeitraum mehrfach gegen die Google-Richtlinien verstoßen wurde. Aus marketingstrategischer Sicht sind deindexierte Seiten praktisch „tot“, selbst wenn diese wieder reanimiert werden. In diesem Kontext ist von einer verbrannten Domain die Rede.

Jeder Webmaster, der die KPIs seiner Homepage im Auge hat, wird bezeugen können, dass viele Kennzahlen natürlichen Schwankungen unterliegen. Nicht immer muss solch eine Schwankung eine Abstrafung durch Google bedeuten. Natürliche Schwankungen müssen in diesem Fall von signifikanten Änderungen differenziert werden.

Weiterhin gilt es zu wissen, dass auch signifikante Änderungen der Kennzahlen nicht zwangsläufig eine Penalty als Ursache haben müssen. Hier greift wieder das Linkjuice-Prinzip. Werden Webseiten, die auf die eigene Seite verlinken, abgestraft, kann sich die daraus ergebende Schwächung der Linkpower auch auf Kennzahlen der eigenen Website auswirken – ohne dass diese selbst mit einer Abstrafung belegt wurde.

Sichtbarkeitsindex (SI) / Online Value Index (OVI)

Der Sichtbarkeitsindex ist die wohl am häufigsten genutzte Kennzahl, wenn es – wie der Name bereits vermuten lässt – darum geht, die Sichtbarkeit einer Seite für Google zu bewerten und den Erfolg oder Misserfolg von SEO-Maßnahmen zu kontrollieren. Und auch wenn der SI mitunter differenziert betrachtet werden muss und beispielsweise für Nischenseiten nur bedingt als Sichtbarkeitskennziffer geeignet ist, lässt sich mithilfe des Sichtbarkeitsindex eine Abstrafung genau identifizieren.

Grundsätzlich gilt es zu wissen, dass es den einen Wert für die Google-Sichtbarkeit nicht gibt. Es gibt mehrere Anbieter auf den Markt, die diese Sichtbarkeit durch unterschiedliche Algorithmen berechnen. Der in Deutschland und zum Teil auch im Ausland bekannteste Vertreter ist der SISTRIX Sichtbarkeitsindex. Mittlerweile ebenfalls sehr geläufig ist der Online Value Index von XOVI.

Der SISTRIX Sichtbarkeitsindex greift auf eine Datenbank von 25 Millionen Datenpunkten zurück. Er berechnet sich aus den ersten 100 Treffern von 250.000 wichtigen Keywords aus dem deutschsprachigen Raum. Die Keywords werden so gewählt, dass ein umfassender Durchschnitt des Suchverhaltens deutscher Suchmaschinennutzer entsteht. Angereichert wird diese Datenbank durch 10 Prozent aktuell relevanter Schlüsselwörter. Je nach Position des Schlüsselworts und Traffic, der für das Keyword zu erwarten ist, findet eine unterschiedliche Gewichtung der Schlüsselwörter statt. Die Platzierung einer Domain für eines in der Datenbank gespeicherten Keywords sowie die Werte aus der Position des Keywords und dem zu erwartenden Traffic ergeben den SISTRIX Sichtbarkeitsindex.

Auf wie viele deutsche Keywords XOVI zur Berechnung des Online Value Index zurückgreift, das ist nicht bekannt. Es ist aber davon auszugehen, dass sich auch dieser Wert im Bereich der Keyword-Datenbank des SISTIRX Sichtbarkeitsindexes befindet. Übereinstimmung herrscht auch bei der unterschiedlichen Gewichtung der Keywords, die nach qualitativen und quantitativen Maßstäben unterteilt werden. Auf dieser Basis und dem Ranking einer Domain zu den in der Datenbank vorhandenen Keywords errechnet der Algorithmus den OVI.

Analysen zeigen, dass sich die Ergebnisse des SI und des OVI zumindest ähneln, siehe http://www.sem-deutschland.de/seo-tipps/seo-tool-vergleich-die-aussagekraft-von-sichtbarkeits-kennzahlen/. Wenn das Google-Ranking stark von der Backlink-Struktur einer Webseite abhängt, dann ist es sehr wahrscheinlich, dass eine signifikante Abnahme der Sichtbarkeit einer Webseite, die zeitlich mit dem Einspielen des Penguin-Updates korreliert, auf eine Penguin-Abstrafung zurückzuführen sein muss. Welches SEO-Tool für diese Kontrolle verwendet wird, ist dabei nicht wirklich relevant, da die Algorithmen ähnliche Faktoren mit einbeziehen. Eine fundierte Suchmaschinenoptimierung kann auf solche Tools heute jedoch nicht mehr verzichten.

Linkabbau

Sollte es sich herausstellen, dass eine Internetpräsenz durch das Penguin-Update betroffen ist, wird es notwendig sein, eine Backlink-Profil-Analyse zu erstellen. Dies kann in Abhängigkeit der Anzahl der Backlinks von Domain zu Domain sehr viel Zeit in Anspruch nehmen. Zusätzlich bedarf es zur Bewertung eines Backlinks reichlich SEO-Fachkenntnisse.

Linkabbau ist in der SEO ein schmaler Grat. Denn wird der Linkabbau zu optimistisch betrieben, bleiben Backlinks, die die Suchmaschine als Spam einstuft, bestehen und verhindern eine bessere Platzierung in den Suchergebnissen. Werden allerdings zu viele Backlinks entfernt, wird das Ranking unnötigerweise verschlechtert. Google selbst gibt keine Informationen darüber, welche Backlinks als Spam gewertet wurden – und dies ganz bewusst. Denn die Suchmaschine zeichnet auch den Linkabbau genau auf und gelangt passiv an wichtige Informationen. So erfährt das Antispam-Team des Suchmaschinenabieters unter anderem, welche Links womöglich gekauft wurden respektive welche Webseiten Links verkaufen.

Um einen Link zu entfernen, ist es in der Regel notwendig, einen anderen Webmaster zu kontaktieren. Denn außer in bestimmten Fällen wie zum Beispiel bei einigen Webkatalogen, besteht kein persönlicher Zugriff auf andere Webseiten. Insgesamt gibt es drei Möglichkeiten, Links abzubauen:

  • Der komplette Link wird entfernt.
  • Der Link wird mit >>nofollow<< versehen und nicht weiter durch die Google-Bots verfolgt.
  • Es wird über das Disavow-Tool ein Hinweis bei Google eingereicht, sodass die Suchmaschine den Link von nun an ignoriert.

Welche Methode zum Linkabbau besser geeignet ist, das hängt von unterschiedlichen Faktoren ab. Falls über den Link noch Traffic generiert wird, ist es eher sinnvoll, den Link nur entwerten zu lassen. Falls auch dies nicht der Fall ist, kann der Backlink entfernt werden. Leider ist auch dieser Prozess oftmals nicht so einfach. Viele Webmaster reagieren nicht auf Emails, in denen um Entfernung eines Links gebeten wird. Wieder andere verlangen unfaire Summen und manch einer benötigt eine gefühlte Ewigkeit für die Umsetzung. In diesem Fall ist das Disavow-Tool von Google eine gute Lösung.

Mit dem Tool ist es auch möglich, nicht nur einen Backlink, sondern gleich alle Backlinks, die von einer Domain ausgehen, entwerten zu lassen, ohne dass andere Webmaster kontaktiert werden müssen. Da sich auf manchen Domains gleich mehrere Backlinks befinden, ist dies eine effektive Option.

Das optimale Link-Profil

Bisher war des Öfteren vom Backlink-Profil die Rede. Grundsätzlich ist es für jede Webseite primäres Ziel, möglichst viele hochwertige Backlinks zu erhalten und somit das Ranking in den Google-Suchergebnissen möglichst positiv zu beeinflussen. Doch ganz so einfach ist es eben doch nicht. Denn für die Natürlichkeit eines Link-Profils benötigt eine Webseite mehr als viele hochwertige Backlinks. Auch der Linktext, der Linktyp und die Linkherkunft müssen bestimmte Kennzeichen aufweisen und statistische Werte erfüllen, damit Google ein Link-Profil als natürlich ansieht.

Hierbei gilt zu beachten, dass es keine konkreten Zahlen gibt, die vorgeben, welche Links oder Linktexte wie oft genutzt werden sollten. Dies kann sich von Webseite zu Webseite und Branche zu Branche zum Teil extrem unterscheiden.

Linktyp

Jedes natürliche Linkprofil besitzt Backlinks, die nicht nur auf die Startseite, sondern auch auf die Unterseiten einer Domain verlinken, sogenannte Deeplinks.Weist eine Seite fast nur Backlinks auf die Startseite auf, ist dies häufig ein Anzeichen gezielter Manipulationsmaßnahmen, häufig durch Linkkauf.

Ergänzt werden follow-Links durch eine gewisse Anzahl von nofollow-Links, die häufig als Resultat von Blog-Einträgen oder Forums-Diskussionen entstehen. Zwar werden diese Links nicht von den Bots verfolgt, doch ist sich die Suchmaschine sehr genau darüber bewusst, wie viele nofollow-Links eine Webseite aufweist.

Online-Shops oder News-Portale besitzen durch natürliche Verlinkung viele nofollow-Links und Deeplinks. Denn hier ist die Startseite in der Regel am uninteressantesten, Produktseiten oder Seiten mit aktuellen News sind wesentlich relevanter und werden häufiger im Internet verlinkt und diskutiert – gerade in Foren, wo fast jeder Link einen nofollow-Tag erhält. Je nach Art der Website gilt es demnach, ein gutes Mittelmaß zu finden.

Beispiel:

Unnatürlich
Natürlich
Deeplink-RateDeeplink-Rate
Startseite: 100 %Startseite: 64 %
Deeplink: 0 %Deeplinks 36 %
Nofollow-RateNofollow-Rate
Nofollow-Links: 0,5 %Nofollow-Links: 7,9 %
Follow-Links: 99,5 %Follow-Links: 92,1 %

Linktexte

Wie bereits erwähnt wurde, sind auch die Anchor-Texte (die Link-Texte) zur Einstufung eines Links relevant. Ein Übergewicht an harten Verlinkungen mit Money-Keywords wird im Regelfall durch die Suchmaschine als unnatürlich bewertet. Compound oder Money-Keywords sollten daher nur sehr selten eingesetzt werden, obgleich es auch hierfür wieder einige Ausnahmen gibt. Zu nennen sind hierbei zum Beispiel Vergleichsportale, die oftmals gar keine andere Wahl haben, als Compound-Links zu setzen. Grundsätzlich gilt ein Link-Profil jedoch als natürlich, wenn der Großteil der Link-Texte Marken- oder Eigennamen, Domainnamen oder sonstige Begriffe, die nicht keyword-orientiert sind, enthält.

Wer auf Keyword-Links nicht verzichten kann oder will, der sollte zumindest versuchen, möglichst viele unterschiedliche Variationen der Schlüsselwörter in den verchiedenen Link-Texten zu verwenden. Denn der Algorithmus achtet auch auf die Häufigkeit, wie oft ein Anchor-Text im Link-Profil zu finden ist.

Linkherkunft

Erstmalig kam der Begriff Russenlinks 2009 auf. Als Linkkauf zur Suchmaschinenoptimierung noch relativ simpel war, wurden zahlreiche günstig zu erwerbende Links aus dem Osten Europas auf deutsche Webseiten gesetzt, um das Ranking zu verbessern. Mittlerweile hat die Suchmaschine jedoch auch hierfür entsprechende Bewertungskriterien angesetzt. Entspricht die Top-Level-Domain des Hostinglandes nicht der TLD des Linkziels, ist dies erst einmal kein Problem. Tauchen jedoch überdurchschnittlich viele ausländische URL-Endungen im Link-Profil auf, wird die Suchmaschine auch dies als Hinweis auf einen möglichen Manipulationsversuch werten.


Wie wichtig ist Offpage-Optimierung für SEO?

Eine Frage beschäftigt nicht erst seit den jüngsten Google-Updates die Fachwelt: Was ist eigentlich wichtiger, Offpage- oder Onpage-Optimierung? Die richtige Antwort ist, ähnlich wie es für fast alle Bereiche der Suchmaschinenoptimierung gilt, wieder einmal nicht eindeutig und abhängig von vielen unterschiedlichen Faktoren.

Grundsätzlich ist eines jedoch unbestritten. Onpage-Optimierung kommt vor Offpage-Optimierung.

Onpage-Faktoren bilden das Skelett einer Internetpräsenz. Nur wenn hier eine strukturierte Umgebung herrscht, die es ermöglicht, dass die Suchmaschinen-Bots auch alle relevanten Inhalte indexieren können, ist überhaupt an Offpage-Optimierung zu denken.

Doch natürlich geht es auch nicht ohne Linkbuilding. Könnte man meinen. Ist aber nur die halbe Wahrheit. Große News-Portale müssen wahrscheinlich kaum aktives Linkbuilding betreiben. Hier regelt sich der Linkaufbau fast von alleine. Doch gilt dies natürlich nicht für jede Page im Internet. Andersrum betrachtet, gibt es Nischen-Seiten, die kaum einen Sichtbarkeitsindex vorweisen können und auch ohne starkes Backlink-Profil gute Rankings erreichen, wenn sie sich auf seltene Longtail-Keywords spezialisieren. Welche SEO-Maßnahme wichtiger ist, ist also stark projektabhängig und zeigt wieder einmal, dass es die eine perfekte SEO-Strategie nicht gibt.

Fakt ist, dass seit dem Panda-Update Onpage-Rankingfaktoren wieder stärker gewichtet werden. Dennoch ist die Domainpopularität wahrscheinlich auch jetzt noch ein sehr wichtiges Ranking-Kriterium. Doch hängt der Erfolg einer Webseite Onlinepräsenz eben nicht nur mit dem Suchmaschinen-Ranking zusammen. User-Signals und KPIs sind hierfür noch immer die relevanten Faktoren. Denn was bringt eine perfekt optimierte, kommerziell orientierte Seite, die gut rankt, aber keinen Gewinn abwirft?

Zusammenfassend lässt sich eventuell sagen, dass zur Beurteilung der Relevanz von Offpage- und Onpage-Maßnahmen immer der IST-Zustand einer Seite im Internet zu betrachten ist. Auf dieser Grundlage muss entschieden werden, welche Optimierungsmaßnahmen in welchem Bereich vonnöten sind. Bei neuen Projekten steht die Onpage-Optimierung allerdings zwangsweise als erste große Maßnahme auf der To-Do-Liste.

SEO-Agenturen aus heutiger Sicht

SEO-Agenturen haben es mitunter nicht leicht. Streng genommen ist jede unnatürliche Maßnahme zum Linkaufbau ein Verstoß gegen die Richtlinien des Suchmaschinen-Primus. Dies macht es für Agenturen mitunter sehr schwierig, überhaupt noch an Links zu gelangen beziehungsweise gänzlich auf dem „legalen“ Pfad zu agieren. Mittlerweile haben sich die Begriffe White Hat SEO und Black Hat SEO etabliert. Diese Begriffe bezeichnen SEO-Maßnahmen, die Google-konform verlaufen oder eben strikt gegen die Richtlinien verstoßen. Black Hat SEO wird häufig verwendet, um Projekte kurzfristig zu pushen. Diese werden nach kurzer Zeit allerdings enttarnt, abgestraft und besitzen keinen nachhaltigen Wert.

Suchmaschinenoptimierung alleine durch gutes Content-Marketing zu betreiben, ist für kleinere und größere Projekte sicherlich umzusetzen und auch effektiv. Die allgemeine Meinung ist derzeit aber auch, dass gerade bei Projekten, bei welchen die Konkurrenz extrem hoch ist, fast keine SEO-Agentur eine gänzlich weiße Weste behalten kann, möchte sie in der Offpage-Optimierung erfolgreich sein. Hosted Content oder gekaufte Links sind notwendig, die Art und Weise, wie dies umgesetzt wird, ist aber das entscheidende Kriterium im Bereich SEO.

Nachhaltige Offpage-Optimierung bedient sich hauptsächlich Richtlinienkonformer Maßnahmen. Dies sollte für jede große und kleine SEO-Agentur – auch im Sinne ihrer Kunden – gelten. Und Kunden sollten sich nicht durch schnelle Erfolgsversprechen täuschen lassen, sondern auch eine nachhaltige Suchmaschinenoptimierung setzen!

Verwendete Quellen

http://www.seokratie.de/linkbuilding-in-deutschland/

http://moz.com/blog/link-building-survey-2013-the-results-infographic

http://moz.com/blog/link-building-survey-2014-results

http://www.barketing.de/akademie/seo-monitor-2013


Schreiben Sie uns eine E-Mail

info@seoplus.expert

Rufen Sie uns auf dem Festnetz an

07121/6951154

Rufen Sie uns auf dem Smartphone an

015167202775

Besuchen Sie unsSeoPlus.Expert, Metzgerstrasse 59, 72764 Reutlingen


Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Du kannst folgende HTML-Tags benutzen: <a href="" title="" rel=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>