Menu

SEO für Publisher & News Seiten

Autor Thea Zinner Thea Zinner

SEO ist für Publisher und News Seiten unabdingbar um gute Ergebnisse zu erzielen. Dafür braucht es umfassende Kenntnisse. Welche? Bitte hier entlang!

Wichtige SEO Kenntnisse für Publisher:

  1. SEO Basics
  2. Tech SEO
    • Sitemap & RSS Feed Implementierung und Management
    • Crawl Speed Optimierung
    • SEO für Google News
    • Google AMP
    • Mobile SEO & Mobile Usability
    • Schema.org
  3. SEO & Content
    • Evergreen Content
    • Autoren Bios
  4. Umgang mit Paywall content

SEO Basics

Zu den SEO Grundlagen für Publisher gehören ganz klar Faktoren wie richtige Page Title und Meta Description. Sie zählen zu den absoluten Basics (nicht nur für Publisher) für eine optimale Darstellung in den Suchergebnissen. 

Empfehlenswert ist weiterhin eine schnelle Keyword Recherche für den zu veröffentlichenden Artikel. So erhalten Journalisten ein detaillierteres Bild der Informationen und Begriffe, nach denen ihre Leser tatsächlich im Zusammenhang mit dem Thema online suchen.

Tech SEO

Sitemap & RSS Feed Implementierung und Management

Hier geht es um fehlerfreie Sitemaps für die Google-Suche und für Google News. Immerhin ist es wichtig, dass neue Inhalte auf der Webseite schnell in den Suchergebnissen auftauchen. 

Sitemaps für Google-Suche

Google akzeptiert Sitemaps in XML, RSS und als Text. Am gängigsten ist jedoch die XML-Variante. Für eine Sitemap spricht vieles: Sie hilft Google beim Crawling und Änderungen werden schneller erkannt. Ebenso werden neue Seiten schneller indexiert, vor allem relevant für News Seiten. Denn mithilfe der Sitemap erfährt Google, dass es etwas Neues gibt. Außerdem: Gibt es bisher kaum Links, hilft die Sitemap dabei, dass die URL dennoch gefunden wird. Gleiches gilt für große Webseiten – vor allem neue URLs sollten gefunden und nicht übersehen werden.

Sitemap für Google News

Auch wer als Publisher schon eine “normale“ Sitemap hat, sollte eine separate Sitemap für die Nachrichteninhalte anlegen. Vorteile? Die Beiträge werden schneller gefunden und zudem findet und indexiert der Crawler wirklich alle Nachrichtenartikel und kann sie in den Google News platzieren. 

Regeln und Richtlinien zum Erstellen der News-Sitemap gibt es hier.

Nach der Erstellung sollte die Sitemap am besten über die Search Console eingereicht werden.

Crawl Speed Optimierung

Das effiziente und schnelle Crawlen von Websites ist ein wichtiger SEO-Faktor, insbesondere für Nachrichtenseiten, auf denen viele neue Artikel und Beiträge veröffentlicht werden. Wenn Googlebots Probleme beim Durchgehen Ihrer Websites haben, werden die Seiten nicht ordnungsgemäß indexiert. Das hat zur Folge, dass der neue Artikel online in der Suche praktisch unsichtbar bleibt. Als Konsequenz können Nutzer Inhalte nur noch über soziale Netzwerke oder direkt erreichen. Das ist vor allem dann nicht gut, wenn die Webseite auf frischen Traffic aus den organischen Suchergebnissen angewiesen ist.

Wenn die Googlebots Probleme beim Crawlen der Webseite haben, kann es dafür mehrere Ursachen geben.

Ziel vieler News-Seiten ist es natürlich, dass der neue Beitrag innerhalb kürzester Zeit – oft weniger Minuten – indexiert wird. Dafür spielen interne und externe Links eine wichtige Rolle. 

Fehlen diese, wird sich der Googlebot in seiner Arbeit besonders schwertun. Gibt es keine Links, die auf den neuen Beitrag verweisen, kann Google den Artikel nicht finden und geht folglich davon aus, dass die Veröffentlichung nicht relevant oder wichtig ist. Die Chancen, dass der User den Artikel dann über die Suche findet, stehen quasi gleich null. 

Weitere Gründe für Probleme beim Crawlen sind eher technischer Natur. Beispielsweise wenn die Seite sehr langsam ist, es zu viele Seiten zum crawlen gibt, die Webseiten-Struktur schlecht ist oder einfach viele andere Fehler auftauchen.

Was kann man tun, um diese Probleme zu beseitigen?

Ein Anfang ist in vielen Fällen einen besseren Hosting-Provider zu finden, die neuen Beiträge der XML-Sitemap hinzufügen und die Sitemap Google (automatisiert) zu übermitteln und verfügbar machen. Das löst schon viele Probleme. 

Allerdings ist das nur der Anfang. Große Publisher und News Seiten kommen nicht darum herum mehr über das Crawlen von Webseiten zu lernen. Sie müssen wissen, welche technischen Anforderungen es zu erfüllen gilt, um sichtbar in der Google Suche zu sein. Schnelle Ladezeiten, Verlinkung, Sitemaps und eine gute Webseiten-Struktur sind nur der Anfang. 

SEO für Google News 

Eine (große) Sichtbarkeit in den Google News hängt direkt mit dem Erfolg eines Artikels zusammen. Um den größtmöglichen Anteil an Klicks zu erzielen, muss der Artikel oben in der Google News Box erscheinen. Dafür müssen natürlich einige Anstrengungen unternommen werden. 

Einige inhaltliche Faktoren für die Aufnahme in Google News

  • mehrere Autoren und Redakteure müssen an der Erstellung der Inhalte der Webseite beteiligt sein
  • Inhalte sollten original sein 
  • Foren oder Blogs werden nicht aufgenommen, denn sie werden nicht redaktionell betreut und haben keinen Pressecharakter
  • nur begrenzt Werbung auf der Webseite 
  • die Inhalte müssen regelmäßig entstehen; neu und aktuell sein 
  • schon vor der Anmeldung zu Google News sollte die Webseite eine große Anzahl an Artikel aufweisen 

Mehr auf dieser Seite.

Technische Faktoren für Google News

  • schnelle Ladezeiten
  • keine Hindernisse für Googlebot oder User beim Durchgehen der Seite
  • europäisches Datumsformat nutzen 
  • spezielle Google News Sitemap nutzen, die sich automatisch aktualisiert
  • keine 301-Weiterleitungen
  • geringe Dokumentengröße
  • wenige Social Media Plugins
  • förderlich ist ein simpler Aufbau des HTML-Quellcodes (ohne beispielsweise zwischengschaltete Werbung): Überschrift –> Bild –> Datum –> Body-Text

Google AMP

Von Beginn an war und ist AMP vor allem für News Seiten konzipiert. Denn aufgrund des reduzierten HTML, den Regeln bezüglich JavaScript und die Unterstützung durch Googles Content Delivery Network sind die Seiten nicht nur schnell, sondern haben noch weitere Vorteile: Gute Rankings, schnelle Ladezeiten, hohes Traffic Volumen, große Sichtbarkeit.

Natürlich gibt es auch einige Nachteile von AMP, wie zum Beispiel die fehlende Nutzerbindung, schwierige Anbindung an Google Analytics, Auslieferung geht über Google-Server. 

Ein abschließender großer Kritikpunkt an AMP ist auch, dass die Technologie eigentlich nicht unbedingt nötig ist, wenn man auch seine eigene Seite schnell und mobil optimiert. Und eigentlich ist es der logische Schritt die eigene Webseite rundum gut zu optimieren, statt Ausweichmöglichkeiten wie AMP zu nutzen. Das löst das Ausgangsproblem nicht und bekämpft lediglich die Symptome. Dennoch – in vielen Fällen ist der Rückgriff auf AMP eine sinnvolle Möglichkeit um Traffic und Sichtbarkeit in der organischen Suche zu verbessern. 

Update: Google hat verkündet, dass beim Bereitstellen von AMP-Seiten in der Google-Suche nun die eigenen URLs der Publisher Domains verwendet werden.

Mobile SEO & Mobile Usability 

Heutzutage ist jeder online und surft auf seinem Smartphone nach Informationen und News. Eine Publisher oder News Seite, die nicht mobil optimiert ist, kann da im Wettbewerb einfach nicht mithalten, da User und Suchmaschine die Seite gar nicht erst finden (und auch nicht mögen). 

Die hervorragende mobile Optimierung ist für Rankings und Sichtbarkeit der Webseite wichtig. Und das erst recht seit Google den Mobile First Index nutzt. Deshalb unbedingt die Artikel mobil optimieren. 

Schema.org 

Mit strukturierten Daten kann die Darstellung in den Suchergebnissen erheblich verbessert und verändert werden. Ob sie zu den Rankings beitragen, ist derzeit nicht bestätigt, jedoch vermutet. In keinem Fall kann die Verwendung von schema.org der Webseite jedoch nachteilig sein. 

Außerdem sollten News Seiten strukturierte Daten verwenden, um in dem sogenannten News-Karussell in der mobilen Suche zu erscheinen.

Publisher sollten mindestens diese folgenden Auszeichnungen einsetzen: 

Google rät dazu, die strukturierten Daten via JSON-LD zu implementieren. Ausführliche Guidelines gibt es zum Beispiel hier.

SEO & Content

Evergreen Content

Der normale Lebenszyklus von Inhalten sieht wie folgt aus: Kurz nach der Veröffentlichung gibt es einen Anstieg in Zugriffen und Nutzerzahlen. Die Zahl wird jedoch abnehmen, je älter der Artikel wird. Das ist die Natur von Nachrichten. Und das liegt daran, dass mit jeder Minute die vergeht, neue berichtenswerte Ereignisse passieren und selbst die Story, über die gerade noch geschrieben wurde, nicht mehr aktuell ist. Als Folge müssen Publisher immer neue Artikel publizieren und immer schneller arbeiten, um die Zahl der Zugriffe aus den Suchergebnissen konstant hochzuhalten.

Glücklicherweise gibt es auch eine Möglichkeit, die das Geschäftsmodell nicht bedroht und den Druck, immer neue Inhalte herauszuschleudern, verringert. Denn gerade in der heutigen Zeit sind gut recherchierte Inhalte, hinter denen Arbeit steckt, enorm wichtig. Um also für einen stetigen Traffic-Fluss aus den Suchergebnissen zu sorgen, haben wir Evergreen Content.

Das sind Inhalte, die – wie es der Name sagt – immer relevant sind. Ähnlich wie immergrüne Bäume, die das ganze Jahr Blätter tragen. Deshalb auch die Bezeichnung. Evergreen Content bezeichnet also Inhalte, die interessant und relevant sind, die (nicht wie andere Inhalte auf Nachrichtenseiten) innerhalb eines Tages veraltet sind und in den Suchergebnissen auftauchen. Und genau das ist es, was Publisher und News Seiten neben dem Tagesgeschäft aufbauen sollten. 

Autoren Bios

Google möchte Usern immer den hochwertigsten und besten Content liefern. Doch dafür benötigt Google eine Richtlinie, anhand derer die Suchmaschine genau das bewerten kann. 

Genau das wird in den Search Quality Rater Guidelines (SQRG) festgelegt. SQRG sind ein Leitfaden für die Schulung von all den Menschen, die bei der Bewertung der Effektivität der Google-Suchalgorithmen helfen. Anhand der SQRG erhalten wir als SEOs ein ziemlich gutes Bild dessen, was Google als hochwertigen Content bemisst und was Webseiten enthalten sollten. 

Im Juli 2018 erhielten die SQRG ein wichtiges Update und damit eine essentielle Erweiterung – es werden seitdem die sogenannten “Content Creators“ als Maß für Qualität der Inhalte mit einbezogen. Die „Rater“, also die Bewerter, die mit dem Leitfaden arbeiten, müssen nun nach dem Ersteller der Inhalte suchen, der beispielsweise mit dem Artikel verknüpft ist. Sie müssen auch herausfinden, wo dieser noch online auftaucht. Innerhalb der SQRG werden die Bewerter vor allem dazu angehalten, die EAT des Autoren zu bewerten. 

Die Tatsache, dass Reputation des Autors, Veröffentlichungen und EAT im besonderen nun in den Search Quality Rater Guideliens auftaucht, ist also für SEO im Allgemeinen und für Publisher Seiten von besonderer Wichtigkeit. Meine Annahme: Der Autor eines Artikels spielt auch eine Rolle für das Ranking des Artikels. 

Anmerkung: Dennoch gehe ich davon aus, dass diese Richtlinien nicht für alle Inhalte im Web gültig sind. Vor allem im vergangenen Jahr haben wir unter anderem beim Medic-Update gelernt, dass YMYL (Your Money or Your Life) Seiten wesentlich strenger kontrolliert und betrachtet werden als andere Inhalte. Die EAT eines Autoren und eines Textes sind vor allem im Finanz- und medizinischen Bereich enorm wichtig. 

Weitere Informationen zum Thema und wichtige Key-Takeaways für Publisher gibt es zum Beispiel hier.

Umgang mit Paywall Content

Der sogenannte Paywall Content ist ein gutes Modell für die Monetarisierung von Online Inhalten – allerdings schwierig für SEO:

Wenn Google die Inhalte nicht sehen kann – wie kann ich dann damit ranken?

Noch bis 2017 existierte die “first click free“ Regel seitens Google, die Publisher dazu zwang, ihre eigentlich bezahlten Inhalte mindestens einmal für User, die von Google kamen, freizugeben. Das führte natürlich zu Unmut bei den Publishern und Zweckentfremdung durch einige Nutzer. Diese Regelung wurde aufgehoben. Seitdem dürfen Publisher und News Seiten selbst entscheiden, wie viel ihres Inhalts sie gratis veröffentlichen. Diese neue Methodik nennt sich “Flexible Sampling“. Dabei sieht der User zum Beispiel nur ein Zitat des Artikels oder den ersten Abschnitt von dem Text, den er lesen möchte. Um mehr zu sehen, müssen sie bezahlen. 

Technische Voraussetzungen für Paywalls

Um als Webseite das “flexible sampling“ nutzen zu können, müssen Publisher mit JSON-LD implementierte Markups für den Content nutzen, der von Nicht-Abonnenten versteckt werden soll. Nur so versteht Google auch welche spezifischen Abschnitte des neuen Artikels für den User verfügbar sind und welche für den Googlebot. Für Google ist das dann auch kein Cloaking (Black-Hat SEO).

Anmerkung: Unter Cloaking versteht man eine verbotene (Black-Hat) Methodik in der Suchmaschinenoptimierung. Dem Crawler der Suchmaschine wird dabei unter derselben URL eine andere Seite präsentiert als dem Besucher.

Außerdem ist es möglich Google zu verbieten, den gecachten Link zu zeigen, damit User nicht einfach in den Google Cache gehen können und den Artikel dort kostenlos komplett lesen können. 

Hier die Google Guidelines.

Paywall Content & User Experience

Hochwertige Inhalte hinter Paywalls zu verstecken, ist definitiv eine sinnvolle Idee aus Monetarisierungsgründen. Das Problem liegt jedoch eher in seiner schlechten User Experience. Google hat prinzipiell kein Interesse daran User auf eine Webseite zu schicken, auf der die Inhalte nicht frei zugänglich sind. Denn das ist schlechte UX. Was also tun?

Aus diesem Grund ist es absolut wichtig, dass der Abschnitt des Textes der dem User vorher angezeigt wird (der lead-in Content) technisch richtig aufgesetzt ist, inhaltlich einwandfrei ist und dem User den Mehrwert oder Informationsgehalt bringt, den er sucht. 

Der ideale lead-in Content ist also nicht einfach die Einleitung zu Thema, sondern idealerweise eine kurze Zusammenfassung der wichtigsten Punkte des Artikels. Er enthält:

  • Eine Überschrift, die das Thema beschreibt und die Haupt-Keywords enthält
  • Eine kurze Zusammenfassung
  • 2-3 der wichtigsten Fragen rund um das Thema
  • Kurze und prägnante Antworten zu diesen Fragen (aus 2 Gründen: sie sollen den Leser zufrieden stellen und so eventuell zusätzlich in den Featured Snippets ranken)
  • Eine kurze Gliederung und Informationen darüber, was hinter der Paywall kommt (Interview, Analyse, Hintergrundbericht…) – der User soll immerhin zum Lesen und Kaufen angeregt werden
  • So viel relevante Schema.org Markup wie möglich

LÍBIL SE TI ČLÁNEK? POŠLI HO DÁL, PROTOŽE SHARING IS CARING!

16.07.2019

Kommentare