Suche Menü

Diese SEO-Features sollte dein CMS beherrschen

Geschrieben am: 23. April 2018 | Zuletzt aktualisiert: 5. Januar 2023 | Lesezeit: ca. 10 Min.

Es gibt viele verschiedene CMS auf dem Markt, die alle unterschiedliche Funktionen und Features bieten. Wenn Sie vor der Entscheidung stehen, ein neues CMS einzuführen, ist es wichtig, dass Sie die Features und Funktionen sorgfältig abwägen.

Eines dieser wichtigen Features ist die Unterstützung von SEO (Search Engine Optimization). In unserem Artikel werfen wir einen genaueren Blick auf die wichtigsten CMS-Features für SEO und zeigen Ihnen, ob diese bei der Auswahl eines neuen CMS berücksichtigt werden sollten.

Inhaltsverzeichnis

Must-haves

Einige Features sind für die SEO-Arbeit unerlässlich und sollten deshalb in keinem CMS fehlen:

Erweiterung: Editierbare Titles & Descriptions

Dass der Title eine wichtige Rolle für die SEO spielt, sollte sich mittlerweile herumgesprochen haben. Das Einpflegen von manuellen Titles und Descriptions sollte deshalb in jedem CMS möglich sein.

Title Description SEO WordPress

Mit Plugins wie Rank Math ist das Optimieren von Title und Descriptions in WordPress ein Kinderspiel

Im Idealfall zeigt das CMS auch die Länge der getexteten Titles und Descriptions in Pixeln an, um prüfen zu können, ob der Inhalt nicht zu lange ist.

Diese Rolle spielen Title & Description in der SEO

Titles & Descriptions sind ein wichtiger Bestandteil der Suchmaschinenoptimierung. Sie helfen Suchmaschinen dabei, die Inhalte einer Website zu verstehen und zu einzuordnen. Titles & Descriptions sind kurze Textschnipsel, die in den HTML-Code einer Website eingefügt werden.

Sie werden in den Suchergebnissen als soegenanntes Snippet angezeigt und geben den Nutzern einen Einblick in den Inhalt der Seite. Titles & Descriptions sollten einzigartig und relevant sein, um die Aufmerksamkeit der Nutzer zu erregen und sie dazu zu bringen, auf die Seite zu klicken. Sie sollten auch relevante Keywords enthalten, um die Sichtbarkeit der Seite in den Suchergebnissen zu erhöhen.

Titles & Descriptions bei (halb-) automatisierten Seiten

Das klingt zunächst trivial, kann aber in manchen Fällen eine echte Herausforderung sein. Insbesondere bei großen Websites ist es nicht immer möglich, jeden Title und jede Description von Hand ins System einzupflegen. Hier hat es sich bewährt, mit Platzhaltern zu arbeiten, an zentraler Stelle gepflegt werden können, aber dennoch auf jeder Seite individuell ausgespielt werden:

Kaufen Sie jetzt $Produkt von $Markenname für $Geschlecht 
versandkostenfrei bei $Shopname.

Idealerweise lässt sich der Inhalt, der zentral gepflegt wird, für einzelne Seiten überschreiben, ohne dass dabei der zentrale Inhalt verändert wird. Damit ist es möglich, besonders wichtigen Seiten individuelle Titles und Descriptions zu geben, während der Rest die halb-automatisierten Daten bekommt.

Vor allem bei Online-Shops, die Filter und Facetten (teilweise) indexieren lassen, kann eine solche Lösung ein guter Kompromiss aus automatisiert und manuell darstellen.

Allerdings muss das CMS in der Lage sein, Daten aus der Warenwirtschaft zu beziehen, das Optimieren von Titles und Descriptions für Filter und Facetten zu ermöglichen.

Editierbare Robots-Angaben

Je größer eine Website wird, umso mehr Seiten gibt es, die über keinen Mehrwert für SEO verfügen oder veraltet sind und deshalb gelöscht oder zumindest von der Indexierung ausgeschlossen werden sollten. Auch in Fällen von Duplicate Content Problemen kann eine Deindexierung einzelner Seiten Abhilfe schaffen.

Die Einstellungen, ob eine URL indexiert werden soll oder nicht, sollten also im CMS für jede einzelne URL vorgenommen werden können.

Warum sind Meta Robots Tags für SEO wichtig?

Meta Robots Tags sind HTML-Tags, die von Webseiten-Entwicklern verwendet werden, um Suchmaschinen darüber zu informieren, wie sie die Seite indizieren und verwenden sollen.

Die Tags können verwendet werden, um Suchmaschinen darüber zu informieren, ob sie die Seite indizieren oder nicht oder, ob sie Links auf der Seite folgen oder nicht.

Meta Robots Tags werden häufig verwendet, um sicherzustellen, dass Suchmaschinen wichtige Seiten indizieren und um sicherzustellen, dass unerwünschte Seiten nicht in den Suchergebnissen angezeigt werden.

Individuelles Canonical Tag

Für den Fall, dass es tatsächlich identische Inhalte an zwei unterschiedlichen Stellen auf der Website gibt, sollte man die URL im Canonical manuell im CMS anpassen können. Eine saubere Seitenarchitektur ohne Duplicate Content sollte einem Canonical jedoch immer vorgezogen werden.

Warum sind Canonical Tags für SEO wichtig?

Canonical Tags, auch als “Rel=Canonical” bezeichnet, sind HTML-Tags, die Webseitenbetreibern ermöglichen, anzugeben, welche Seite die “Hauptversion” eines bestimmten Inhalts ist.

Sie werden häufig verwendet, um Duplikate von Inhalten auf verschiedenen URLs auf einer Website zu vermeiden. Wenn Suchmaschinen-Crawler eine Seite crawlen, die ein Canonical Tag enthält, wird die Hauptversion der Seite gecrawlt und in den Suchmaschinen-Index aufgenommen.

Das Canonical Tag ist ein absolutes Must-have, wenn es darum geht Duplicate Content zu vermeiden. Standardeinstellung sollte dabei sein, dass die URL im Tag eine Selbstreferenz ist, also auf sich selbst verweist. Damit wird verhindert, dass Parameter an der URL Duplicate Content erzeugen.

Automatische XML Sitemaps

XML Sitemaps sind eine wichtige Stütze für Suchmaschinen, um alle URLs einer Website crawlen zu können und die Struktur der Seite zu verstehen. Ein CMS sollte eine XML-Sitemap selbständig erstellen und diese auf dem Server ablegen können. Anschließend sollte die Sitemap in der Search Console eingereicht werden.

Warum sind XML Sitemaps für SEO wichtig?

XML-Sitemaps sind Dateien, die eine Liste aller URLs einer Website enthalten, die von den Suchmaschinen indiziert werden sollen.

Die XML-Sitemap hilft den Suchmaschinen, alle Seiten einer Website zu entdecken und zu indexieren, insbesondere solche, die möglicherweise von anderen Seiten auf der Website oder externen Links nicht entdeckt werden können.

Indem die Suchmaschinen alle URLs einer Website kennen, können sie den Inhalt besser verstehen und die Website besser bewerten, was wiederum dazu beitragen kann, dass die Website in den Suchmaschinen besser gefunden wird. XML-Sitemaps sind daher ein wichtiges Werkzeug zur Suchmaschinenoptimierung.

Um unerwünschte Inhalte aus der Sitemap fernzuhalten, sollte diese durch das CMS vorgefiltert werden und keine URL beinhalten, die:

  • Keinen Statuscode 200 ausgeben
  • Auf Noindex stehen
  • Ein Canonical Tag auf eine andere URL haben
  • Per Robots.txt vom Crawling ausgeschlossen sind

Mit dem kostenlosten Tool Screaming Frog lassen sich Sitemaps einfach anhand eines Website-Crawls generieren und testen.

5. Pflegbare Weiterleitungen

Nothing lasts forever – Auch eine URL kann eines Tages geändert oder gelöscht werden. Um keine Rankings zu verlieren, sollte im CMS eine Möglichkeit vorhanden sein, um Redicrects mit Statuscode 301 einrichten zu können, ohne IT Ressourcen beanspruchen zu müssen.

Wer über Länderdomains oder mobile Subdomains verfügt, sollte darauf achten, dass Weiterleitungen relativ gepflegt werden können, um nicht für jede (Sub-) Domain einzeln tätig werden zu müssen.

Warum sind Weiterleitungen für SEO wichtig?

Weiterleitungen sind ein wichtiger Bestandteil der Suchmaschinenoptimierung (SEO), da helfen geänderte URLs an Nutzer und Suchmaschinen zu kommunizieren. Es gibt verschiedene Arten von Weiterleitungen, die in der SEO verwendet werden, wie 301-Weiterleitungen und 302-Weiterleitungen.

301-Weiterleitungen sind dauerhafte Weiterleitungen, die anzeigen, dass eine Seite dauerhaft an eine andere Seite umgeleitet wurde. Diese Weiterleitungen sind wichtig, wenn eine Seite verschoben oder umbenannt wurde und die alte URL nicht mehr verwendet wird. Die Suchmaschinen werden die neue Seite in ihren Index aufnehmen und das Ranking der alten Seite auf die neue Seite übertragen.

302-Weiterleitungen hingegen sind temporäre Weiterleitungen, die anzeigen, dass eine Seite nur vorübergehend an eine andere Seite umgeleitet wurde. Die Suchmaschinen werden die alte Seite weiterhin in ihrem Index belassen und das Ranking der alten Seite beibehalten, anstatt es auf die neue Seite zu übertragen. In der SEO werden 302 Weiterleitungen nur selten eingesetzt.

In beiden Fällen sind Weiterleitungen wichtig, um sicherzustellen, dass Nutzer, die auf eine nicht mehr vorhandene Seite zugreifen, auf eine andere Seite umgeleitet werden, die relevante Informationen enthält, anstatt eine Fehlermeldung zu erhalten.

Individuelle ALT-Attribute für Bilder

Beim Einsatz von Bildern ist ein gepflegtes Alt-Attribut nach wie vor wichtig, um gute Rankings in der Bildersuche zu bekommen. Eine Pflegemöglichkeit dieses Tags bei der Verwendung von Bildern sollte also im CMS vorhanden sein.

Das Alt steht dabei für „Alternativ“ und wurde eingeführt, um Browsern ohne Bilddarstellung oder Screenreadern die Möglichkeit zu geben, den Inhalt eines Bildes auszulesen. Auch wenn ein Bild aufgrund einer fehlerhaften Verlinkung oder Serverproblemen nicht geladen werden kann, wird in einigen Browsern anstelle des Bildes der Inhalt des Alt-Attributes angezeigt.

Michael Hohenleitner (geb. Göpfert) - SEO in München
SEO Hilfe gesucht?

In einem kostenlosen Erstgespräch besprechen wir deine Situation und wie wir die SEO-Potenziale deiner Website nutzen können.


Jetzt unverbindlich Kontakt aufnehmen

Das Alt-Attribut sollte also weniger für Keyword-Stuffing als für eine sinnvolle Beschreibung des Bildes verwendet werden. Um einen Überblick über die verwendeten Alt-Attribute zu bekommen, können mit Browser Add-ons wie der Web Developer für Firefox Bilder gegen ihr Alt-Attribut ersetzt werden. Schwachstellen in der Beschreibung der Alt-Attribute werden so leicht sichtbar.

Welche Rolle spielen Alt-Attribute für SEO?

ALT-Attribute (auch als “ALT-Tags” oder “ALT-Text” bezeichnet) sind Attribute in HTML-Code, die dazu verwendet werden, eine Alternative Beschreibung für Bilder anzugeben.

Sie werden hauptsächlich verwendet, um den Inhalt von Bildern für Menschen, die aufgrund von Sehbehinderungen oder anderen Gründen das Bild nicht sehen können, zugänglich zu machen.

Sie sind aber auch wichtig für die Suchmaschinenoptimierung, da sie den Suchmaschinen helfen zu verstehen, was auf dem Bild dargestellt wird. Wenn Sie relevante und aussagekräftige ALT-Attribute verwenden, können Sie dazu beitragen, dass das Bild in den Suchmaschinenergebnissen besser gefunden wird. Es wird empfohlen, ALT-Attribute für alle Bilder auf Ihrer Website anzugeben.

Veröffentlichen von Content

Wie der Name Content-Management-System schon sagt, sollte das System in der Lage sein, Content auszuspielen. Bei Shopsystemen sind diese Möglichkeiten jedoch oft begrenzt. Vor allem Online-Shops haben nicht immer die Möglichkeit, auf allen wichtigen Seiten Texte zu veröffentlichen. Content auf Kategorieseiten von Online-Shops kann Google dabei helfen, den Inhalt der Seiten zu verstehen und für mehr Keywords zu ranken als eine Kategorie ohne Text.

Von reinen Textwüsten sollte dabei selbstverständlich abgesehen werden. Wer seine Kategorien dagegen mit sinnvollen Kaufberatungen ausstattet, wird nicht nur durch gute Rankings, sondern auch durch mehr Conversions belohnt. Dazu gehören neben Text:

  • Nützliche interne Links
  • Tabellen
  • Zwischenüberschriften
  • Listen
  • Bilder
  • Videos

Nice to have

Zugang zur Robots.txt-Datei

Die Robots.txt ist zwar (vor allem bei großen Webseiten) sehr wichtig für Google, sie wird aber meiner Erfahrung nach nur selten aktualisiert, deshalb ist der direkte Zugriff auf diese Datei eher ein “Nice to have”.

Wichtig ist jedoch, dass Änderungen an der Datei schnell vorgenommen werden können. Denn: wenn sie geändert werden muss ist es meistens dringend.

Was ist die Robots.txt-Datei?

Die Robots.txt ist eine Datei, die von Webseitenbetreibern verwendet wird, um Suchmaschinen darüber zu informieren, welche Teile ihrer Webseite von den Suchmaschinen-Bots gecrawlt werden dürfen und welche nicht.

Diese Datei wird von den Suchmaschinen-Bots beim Crawling der Webseite beachtet und dient dazu, bestimmte Teile der Webseite von den Suchmaschinen-Ergebnissen auszuschließen.

Die Robots.txt ist wichtig für die Suchmaschinenoptimierung, da sie dazu beitragen kann, dass die Webseite besser von den Suchmaschinen gefunden wird, indem sie sicherstellt, dass nur relevante und qualitativ hochwertige Seiten von den Suchmaschinen gecrawlt werden.

Besonders wenn eine Website (z.B. durch Filter) unkontrolliert URLs erzeugt, ist eine Robots.txt wichtig, um nicht unnötig Crawl-Budget zu veschwenden.

Strukturierte Daten

In der regel werden strukturierte Daten für jeden Seitentyp einer Website definiert und automatisch erzeugt. Deshalb spielen sie in der täglichen Arbeit der meisten SEOs keine große Rolle. In manchen fällen kann es sinnvoll sein, zusätzlich zu den automatisiert erzeugten strukturierten Daten manuelle Daten auf einer Seite zu integrieren. Beispielsweise kann ein Artikel um strukturiert ausgezeichnete, häufig gestellte Fragen ergänzt werden, die dann in den Suchergebnissen angezeigt werden. Dies lässt sich am besten manuell im CMS integrieren.

Was ist sind strukturierte Daten?

Strukturierte Daten sind eine Art von Metadaten, die Webentwickler einsetzen können, um Suchmaschinen mehr Informationen über die Inhalte einer Webseite zur Verfügung zu stellen.

Diese Daten werden in einem spezifischen Format dargestellt, das von Suchmaschinen leicht verarbeitet werden kann. Indem Webentwickler strukturierte Daten einsetzen, können sie den Suchmaschinen helfen, die Inhalte einer Webseite besser zu verstehen und diese besser zu indexieren.

Dies kann dazu beitragen, dass eine Webseite in den Suchmaschinenergebnissen besser besser dargestellt wird, weil strukturierte Daten das Snippet beinflussen können.

Es gibt zahlreiche Möglichkeiten eine Website mit strukturierten Daten auszuzeichnen. Einige davon sind:

  • Typ der Webseite (z.B. News-Artikel, Event, Produktseite)
  • Die Person oder das Unternehmen, das die Webseite veröffentlicht hat
  • Das Veröffentlichungsdatum eines Artikels
  • Die Bewertungen eines Produkts

Anpassbare Überschriften

Nicht selten tragen Überschriften den selben Namen wie der Artikel oder die Kategorie. Damit genügen Sie jedoch häufig nicht den Anforderungen an eine gute Headline. Diese erscheint schließlich nicht nur auf der Seite selbst, sondern auch in Sozialen Netzwerken und Feedreadern.

Wenn User auf eine Seite kommen ist häufig die Überschrift das erste was gelesen wird. Die Headline ist also ein wesentlicher Faktor wenn es darum geht ob sich der User intensiver mit der Seite beschäftigt oder sie wieder verlässt. Deshalb ist es vorteilhaft, wenn die Überschrift im CMS manuell editiert werden kann.

Welche Rolle Spielen Überschriften in der SEO?

Überschriften sind wichtig für die Suchmaschinenoptimierung, da sie den Inhalt einer Webseite zusammenfassen und dem Nutzer und den Suchmaschinen zeigen, worum es auf der Seite geht.

Sie sollten aussagekräftig und relevant für den Inhalt der Seite sein und das Hauptkeyword der Seite enthalten. Gute Überschriften können dazu beitragen, dass eine Webseite in den Suchmaschinen besser gefunden wird.

Eine Gute Überschrift sollte deshalb:

  • Neugierig auf den Inhalt machen
  • Das Keyword der Seite beinhalten
  • Den Inhalt beschreiben (ohne zu spoilern)
  • Nicht länger als ca. 60 Zeichen sein (damit die Headline in allen Netzwerken dargestellt werden kann)
  • Zahlen beinhalten

Fazit

Ambitioniertes SEO setzt ein CMS voraus, das den Anforderungen moderner Suchmaschinenoptimierung gerecht wird. Langwierige Umwege über die IT um Kleinigkeiten wie Canonical Tags anzupassen oder Weiterleitungen einzurichten kosten Zeit und Ressourcen. Wer also langfristig auf den Kanal SEO setzt sollte Möglichkeiten autonomen Arbeitens so weit wie möglich ausdehnen.

Michael Hohenleitner (geb. Göpfert) - SEO in München
Geschrieben von: Michael Hohenleitner (geb. Göpfert)

Hat dir der Beitrag geholfen?

Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.


Das könnte dich auch interessieren: