SMX 2018 Recap
Nach längerer Pause hier im Blog habe ich die SMX 2018 zum Anlass genommen mal wieder einen Recap zu schreiben und die besuchten Sessions ohne Anspruch auf Vollständigkeit zusammenzufassen.
- Keynote: Kein Grund zur Panik! Tipps, um die mobile Suche und die Sprachsuche 2018 und in Zukunft zu meistern
- SEO für Google’s Mobile-First Index & die Mobile-Friendly Welt
- Das Local-Mobile SEO Playbook 2018
- Unicorn Marketing 2018: So liefern alle Marketing Channels langfristig großartige Resultate
- Search Engine Friendly Design
- SEO Tests auf großen und kleinen Webseiten – was wir von Etsy, Pinterest und anderen lernen können
- Accelerated Mobile Pages AMP und mehr – brauchen schnelle Seiten eigentlich AMP?
- Technical Onpage & Onsite Clinic
- Was zusammengehört, soll man nicht trennen: SEASEO AdWords Optimierung
- Suchmaschinenoptimierung und Schranken: Paywall, First Click Free und Conversion via SEO
- Fazit
Keynote: Kein Grund zur Panik! Tipps, um die mobile Suche und die Sprachsuche 2018 und in Zukunft zu meistern
Die Eröffnungskeynote der SMX 2018 wurde von Greg Gifford gehalten und stand unter dem Motto „Don’t freak out“ und Einsichten und gab Ausblicke rund um das Thema mobile SEO und Sprachsuche. Die große Relevanz des Themas wurde mit einigen Zahlen verdeutlicht:
- 50% der Smartphone Besitzer nutzen die Sprachsuche davon ein Drittel täglich
- 2020 wird die Hälfte aller Suchanfragen per Sprache gestellt werden
Da die Sprachsuche nach wie vor noch in den Kinderschuhen stecke würden lediglich einfache Anfragen via Sprache an die Suchmaschinen gestellt. Wichtiger Ausgangspunkt für Traffic über Voice Search sei ein Featured Snippet. Neben der Verwendung von Schema.org Auszeichnungen sei es sinnvoll die Antworten in bestehenden Featured Snippets zu ermitteln und eine bessere Antwort zu liefern. Klingt vermutlich leichter als es ist.
Ebenfalls wichtig um in der Sprachsuche eine Rolle zu spielen sei die Ladezeit. So hat Brian Dean von Backlinko 10.000 Anfragen an Google Home untersucht und festgestellt, dass die Ladezeiten der rankenden Seiten bei 4,6 liegt und die Antworten aus durchschnittlich 29 Wörtern bestehen, die aus einem Long Form Artikel kommen.
Um in transaktionalen Bereichen eine Chance zu haben sei es besonders bei der Sprachsuche wichtig die Bedürfnisse und Verhaltensmuster der Suchenden zu kennen. Dabei spiele neben der Zielgruppe die Art zu sprechen eine große Rolle. Nur so könne man in einer Welt in der ab 2020 30% des Traffic nicht mehr auf einem Screen erscheinen wird bestehen.
Noch aktueller als das Thema Sprachsuche ist der Bereich mobile. Auch dazu gab es von Greg Gifford einigen Input:
- 50% der mobilen Suchanfragen seien lokal bezogen
- 47% der Leute erwarten eine Ladezeit von unter 2 Sekunden
- Viele mobile Suchen sind sehr persönlich und enthalten Begriffe wie „für mich“ oder ähnliches
Neben der Performance wurde auch die Wichtigkeit von „klassischen“ SEO Themen wie identischer Content wie auf Desktop aber das Entfernen der ungeliebten Slider betont.
Zum Schluss gab Gifford noch einen kurzen Ausblick auf das Thema Augmented Reality das ein echter Gamechanger werden könnte.
SEO für Google’s Mobile-First Index & die Mobile-Friendly Welt
Auch im folgenden Vortrag von Leslie To und John Müller stand das Thema Mobile im Fokus. Müller betonte die Komplexität der Umstellung des Index auf mobile First so musste mit der Prüfung auf Existenz einer mobilen Version ein zusätzlicher Schritt zwischen Crawling und Indexierung eingefügt werden, was bei 20 Milliarden Seiten die am Tag gecrawlt werden einige Zeit dauert.
Müller beschrieb auch noch mal die bereits bekannten oder vermuteten Punkte um den Mobile First Index:
- Es gibt nach wie vor nur einen Index
- Mobile ist die bevorzugte Variante der Website
Um beim Switch auf Mobile First nicht unter die Räder zu kommen gab Müller einige Tipps:
- Website auf mobilfähigkeit prüfen
- Bilder und Alt Attribute verwenden
- Sollte die mobile Seite auf einem separaten Server laufen muss sichergestellt sein, dass dieser die Last eines Verstärkten Crawling aushält. Hier habe es in der Vergangenheit schon Probleme gegeben
- Auch die Basics wie Robots.txt und Verlinkungen müssen sichergestellt sein
Aber auch eine Desktop Only Website sei laut Müller nach wie vor ok.
Im zweiten Teil der Session zeigt Leslie To verschiedene Möglichkeiten seine Website für den Mobile First Index fit zu machen.
Neben dem Verwenden von Tools wie dem Mobile-Friendly Test von Google als Grundlage verwies sie auch auf die Möglichkeit anhand der Logfiles zu sehen ob das Crawling via „Googlebot Smartphone“ schon überhandgenommen hat was ein Indiz dafür sei, dass man sich bereits im Mobile First Index befände.
Für einen Mobile Site Audit schlug Leslie To folgende Maßnahmen vor:
- Crawling Fehler in der Search Console prüfen um strukturelle Schwächen der Seite auszuschließen. So könne das Vorhandensein von vielen 500er Fehlern in Indiz für einen zu schwachen Server der mobilen Website sein.
- Screaming Frog mit User Agent „Googlebot Smartphone“ die Seite crawlen lassen
- Alternate-Tags auf für die mobile Version der Website anpassen
- Ein besonderes Augenmerk auf JavaScript Inhalte werfen
- Bei den Ladezeiten die Response Time, die Zeit bis zum First Meaningfull Paint (mit Lighthouse) und die durchschnittliche Ladezeit im Auge behalten
Wie auch schon Müller zuvor betonte To die Relevanz der bekannten SEO Themen wie Title, Headlines und Content. Dazu würden auch hochwertige Bilder gehören, die nicht auf Stockphoto Portalen zu finden sind. Bei der Integration von Videos sei besonders auf die Smartphone kompatible Einbindung zu achten (kein Flash, HTML 5).
Um die Nutzererfahrung zu verbessern können Daten aus der internen Suche herangezogen werden. So könnten schwächen in der mobilen Navigation aufgedeckt werden.
Auch ein langfristiger Vergleich wichtiger Daten wie CTR, durchschnittlichem Ranking und der Bounce Rate zwischen Mobile und Desktop sei hilfreich um die mobile Website zu verbessern.
Das Local-Mobile SEO Playbook 2018
Cindy Krum und Greg Gifford teilten sich die nächste Session, bei der es sich wieder um Mobile drehte dieses Mal jedoch mit Fokus auf Local. Bereits in der Keynote wurde deutlich, dass in der mobilen Suche der lokale Bezug noch ausgeprägter ist als bei einer Suche am Desktop PC.
Cindy Krum zeigte direkt eine der aktuellsten Entwicklungen, der SERP ohne Ergebnis. So zeigt Google mittlerweile für einige Suchanfragen ausschließlich eine einzige Answer Box an.
Dies sei der nächste logische Schritt, schließlich gehe der Trend immer mehr zur Interaktion innerhalb der SERPs. Durch das Bilden von Entitäten kann Google immer besser den Usern passende SERP Varianten in Form von verschiedenen Verticals wie Maps anbieten. So können Tischreservierungen bei Opentable bereits direkt in den Google Suchergebnissen durchgeführt werden. Die Suchergebnisse würden so mit der Zeit immer persönlicher die beste Antwort darauf sei verstärkt auf Engagement zu optimieren.
Im zweiten Teil der Session war wieder Greg Gifford an der Reihe und veranschaulichte sowohl die Wichtigkeit als auch die Komplexität der lokalen Suche. Viele Unternehmen sei die Wichtigkeit von Local SEO nach wie vor nicht bewusst. Gifford gab den Zuhörern während der Sessions verschiedene Templates an die Hand:
- Mit dem SEO Mini Audit Template könne ein Local SEO Audit in 10 – 20 Minuten durchgeführt werden
- Einen Screencast über die wichtigsten Local SEO Ranking Faktoren
- Ein Fragen Katalog der beim Aufbau von lokalen Links behilflich sein soll
Links seien auch im Local SEO ein sehr ernstzunehmender Faktor. Sowohl externe als auch interne. Während man beim externen Linkaufbau vor allem auf Links aus der gleichen Region achten sollte, sei bei den internen Links die Seitenstruktur entscheidend. Thematische Silos seien sinnvoller als viele Links von der Startseite zu verteilen um einen entsprechenden Funnel zu bilden.
Als weitere wichtige Rankingfaktoren wurden genannt:
- Adresse und Telefonnummer in der entsprechenden Stadt
- Content mit lokalem Bezug
- Stadtname in H1, Title (noch vor der Brand), Description und Alt Attributen
- Reviews sowohl bei Google als auch bei Yelp (wird bei Apple Maps verwendet) und Facebook
- Bei Citations sei unbedingt auf die Übereinstimmung der Daten zwischen Website und Citation zu achten
Unicorn Marketing 2018: So liefern alle Marketing Channels langfristig großartige Resultate
In der Keynote nach der Mittagspause ging es um die Effizienz von Marketing Kampagnen. So seien laut Speaker Larry Kim 98% aller Marketing Kampagnen erfolglos. Selbst dann, wenn Tipps aus Blogs oder Ratgebern befolgt würden.
So habe sich in den letzten Jahren eine Entwicklung abgezeichnet: Während 2015 die Verteilung des Traffics fast gleichmäßig über alle Artikel verteilt sei bekämen 2017 nur noch einige wenige Artikel den Groteil des Traffic. Diese jedoch umso mehr. Diese Art von erfolgreichem Content bezeichnete Kim als Unicorn Content.
Für die Erstellung solchen Contents sei eine neue Definition von Qualität nötig. Anstatt Viralität als Ziel auszugeben solle man sich mehr an den Qualitätsstandards von Facebooks Ads und AdWords orientieren. Denn dort seien Metriken wie Engagement schon seit Jahren wichtig für den Erfolg. Aber auch im SEO in Form der CTR und in E-Mail-Marketing bei der Öffnungsrate haben sich Interaktionen als Kennzahl etabliert.
Um den eigenen Unicorn Content zu identifizieren sei es zunächst nötig eine Bestandsaufnahme zu machen. Zunächst müsse der vorhandene Content nach den oben genannten Maßstäben beurteilt werden. Anschließend könne der erfolglose (Donkey) Conent entfernt werden, sodass nur noch der Unicorn Content übrigbleibt. Nun könne man seine drei erfolgreichsten Kampagnen nehmen und darauf aufbauen. Dies beinhaltet auch das übernehmen von funktionierenden Themen der Wettbewerbern, aber auch das Publizieren von Inhalten außerhalb der eigenen Nische.
Anhand einer Analogie mit dem Spiel „Schiffe versenken“ veranschaulichte Kim, dass bei einem Treffer oft weitere Treffer in der Nähe seien. Es sei also völlig legitim funktionierende Dinge zu wiederholen bis deren Erfolg nachlässt.
Search Engine Friendly Design
Im Vortrag von Jens Fauldrath drehte sich alles rum um Search Experience Optimization sowohl für die Suchmaschinen in Form von sauberer Seitenarchitektur als auch für den Nutzer durch Relevanz, Pertinenz und Nützlichkeit.
Während es sich bei der Relevanz um ein Objektives Kriterium handle seien Pertinenz und Nützlichkeit sehr subjektiv und Google müsse seine Bewertungskriterien deshalb erweitern. Da das Auswerten von Texten lediglich die Relevanz beurteilen könne, müssten Personalisierung und Machine Learning zusätzlich zur Bewertung einer Website herangezogen werden.
Um dem Gerecht zu werden sei es umso wichtiger den Nutzer und seinen Search Funnel zu kennen um an den wichtigen Touchpoints in de Customer Journey präsent zu sein.
Grundvoraussetzung dafür sei eine saubere Architektur der Website:
- Eindeutige URLs
- URL-Design so aufbauen, dass eine Auswertung auf Verzeichnis-Ebene möglich ist
Die Steuerung des Crawling und der Indexierung verfüge ebenfalls über großes Potenzial im Guten wie im schlechten. So solle man darauf achten ein gesundes Verhältnis von indexierten und nicht indexierten Seiten zu haben. Dies könne durch das Vermeiden von Facetten, Duplikaten oder Session IDs realisiert werden. Eine solle Reduzierung der Komplexität könne die Sichtbarkeit deutlich nach oben treiben.
Auch die Inhalte auf einer Website spielen beim Search Engine Friendly Design eine wichtige Rolle. Auch hier stehe die User Intention im Mittelpunkt. So solle beispielsweise ein Snippet nicht in Inhalt der Seite beschreiben, sondern verdeutlichen warum es für den Nutzer des Beste sei darauf zu klicken. In diesem Bereich könne man als SEO auch von SEA lernen.
Die Inhalte einer Website sind für den User und die Suchmaschine gleichermaßen von großer Bedeutung. Hier sei auf eine saubere Struktur zu achten. Dies betreffe unter anderem Themen wie Headlines oder die interne Verlinkung zur Steuerung der User. So sollten Klickpfade möglichst flach gehalten werden und klickstarke Ankertexte verwendet werden.
HTML Sitemaps sollten besser thematisch getrennt und nach Relevanz sortiert sein. Hier würden sehr oft Potentiale verschenkt werden in dem alphabetisch oder nach Neuigkeit sortiert werden würde.
SEO Tests auf großen und kleinen Webseiten – was wir von Etsy, Pinterest und anderen lernen können
Tom Anthony von Distilled plauderte etwas aus dem Testing-Nähkästchen nach dem auf Seiten wie Pinterest zahlreiche SEO-Experimente durchgeführt wurden.
Die Tests wurden in der Regel durch Änderungen am Template ausgesielt das auf einem Teil der Seite ausgerollt wurde, der Rest diente als Kontrollgruppe. Anschließend wurde die Performance der beiden Gruppen in den Suchmaschinen überwacht.
Die überraschende Erkenntnis war, dass ein Großteil der Tests zu einem negativen Ergebnis führte. Zwar seien stets „Best Practices“ umgesetzt worden jedoch in vielen Fällen ohne Erfolg. Das Learning daraus war, dass SEO nicht mehr vorhersehbar sei und man nicht aufgrund von Verbesserungen die für den Nutzer keine Relevanz haben bessere Rankings erwarten dürfe.
Aus diesem Grund wurde der Versuchsaufbau geändert und jedem Test musste eine Hypothese zu Grunde liegen, die den Grund des Tests und das erhoffte Ergebnis festhalten solle. Ein solches Framework kann hier heruntergeladen werden.
Nach dem bei Distilled nach einem solchen Framework gearbeitet wurde entwickelten sich die Testergebnisse deutlich besser. Festgehalten werden kann:
- Wettbewerbsfähig zu sein heißt testen
- SEO muss Nutzerzentriert sein
- Rankingfaktoren stehen nicht mehr für sich allein
Accelerated Mobile Pages AMP und mehr – brauchen schnelle Seiten eigentlich AMP?
Tag zwei der SMX startete ganz im Zeichen des Pagespeed. Google Entwickler Sebastian Benz und Bastian Grimm zeigten in zwei kontroversen Sessions was mit und ohne AMP in Sachen Ladezeit Möglich ist.
Benz startete und machte in seinem Vortrag reichlich Werbung für AMP. Die einfache Integration habe dafür gesorgt, dass mittlerweile 31 Millionen Domains AMP-Seiten ausliefern würden. Davon würden lediglich 40% der Klicks auf AMP-Seiten aus dem News-Bereich kommen, der ursprünglichen Zielgruppe von AMP.
Auch die Verweildauer und die Conversion Rate sei mit AMP deutlich besser. Ursache für den Erfolg sei die auf Standard Webtechnologien aufbauende Technik. Diese sei so weiterentwickelt worden, dass viele Best-Practices (z.B. Lazy Loading) aus der Ladezeitoptimierung bei AMP Standard seien. Während bei herkömmlichen Websiten sich die Ladezeit mit zunehmender Entwicklungsdauer immer mehr verschlechtere sei eine AMP Seite immer gleich schnell.
Das häutig kritisierte Caching der AMP-Seiten auf den Google Servern diene übrigens der Privatsphäre, da bei einem direkten Aufruf der AMP-Seiten leicht Nutzerprofiele erstellt werden können. Als Beispiele für gelungene AMP-Projekte führte Benz unter anderem Spiegel Daily und die neue Website von BMW.com an.
Die AMP-Webseite von BMW.com war dann auch Anknüpfungspunkt für den Teil von Bastian Grimm, der die Seite als eine der langsameren im Internet bezeichnete. Dennoch fand er auch Lob für das AMP-Projekt, schließlich habe es das Thema Pagespeed erst auf den Radar vieler Seitenbetreiber gebracht.
Dennoch seien auch viele Punkte problematisch. Die geringe Möglichkeit den Seiten ein eigenes Branding zu verpassen oder dass der Ladezeit-Vorteil der AMP-Seiten hauptsächlich aus dem Caching bei Google und dem Prerendering der Seiten bereits in der SERP komme. Würde man diese beiden Punkte außer Acht lassen wären bereits viele herkömmliche Seiten schneller.
Anstelle sich durch AMP einschränken zu lassen solle man lieber an der Ladezeit der eigenen Seite optimieren. So solle man auf die Time To First Paint, Time To First Contentful Paint und First Meaningful Paint achten.
Um den Critical Rendering Path zu optimieren könne man mit Inline Styles arbeiten während die unkritischen Styles asyncron nachgeladen werden. Auch die Optimierung von Bildern (Stichwort „WebP“-Format) biete weitere Möglichkeiten die Ladezeiten zu reduzieren.
Technical Onpage & Onsite Clinic
Wie schon in den Jahren zuvor nahm Googles John Müller auch bei dieser SMX einige Website aus Google Sicht unter die Lupe. Generell sei die Qualität der Seiten in den letzten Jahren immer besser geworden. Ein paar Tipps hatte er aber dennoch auf Lager:
- Bei Shops darauf achten, dass die vielen URLs nicht das Crawl Budget überschreiten
- Bei spezialisierten Seiten versuchen durch Content die Produkte einem breiteren Publikum zugänglich zu machen
- Die PR von Roboter Hersteller Kuka wurde dabei als positiv für SEO hervorgehoben (unterhaltsame Videos)
- Wird Content nur angezeigt, wenn ein Cookie gesetzt wurde sollte beachtet werden, dass der Googlebot das Cookie bei einer Weiterleitung verliert
- Wer sich das DOM so anzeigen lassen will wie Google es sieht sollte auf den Rich Snippet Tester zurückgreifen
- Wird ein Head-Tag durch Integration eins Scripts oder eines iFrames geschlossen wird der Rest des Heads nicht ausgelesen
- Bei der Anreicherung von Kategorieseiten in Shops mit Content sollte darauf geachtet werden nicht nur das Produkt zu beschreiben, sondern vor allem den Nutzen zu erklären
- Beim Einsatz von hreflang Tags auf einer mobilen Subdomain sollte das Tag auch auf die mobile Subdomain der Länderversion verweisen
- Beim großflächigen Einsatz von Canonical Tags kann es dazu kommen, dass einzelne Seiten trotzdem kurzzeitig in den SERPs auftauchen
- Der Einsatz eines Canonical Tag auf einer Noindex Seite ist kein Problem, das Noindex vererbt sich nicht (war mal ein Problem)
- Seiten mit Noindex, Nofollow werden von Google wie 404 Seiten behandelt und die Links werden nicht gewertet
- Der Einsatz von Stockfotos hat keinen negativen Impact auf die organische Suche, auf die Bildersuche hingegen schon
Was zusammengehört, soll man nicht trennen: SEASEO AdWords Optimierung
Einen Case über die (erfolgreiche) Nutzung von Synergien zwischen SEO und SEA gab es von Christian Paavo Spieker. Durch die Annäherung der KPI beider Kanäle (CTR, Verweildauer..) können SEO und SEA noch mehr voneinander profitieren.
Neben der entsprechenden Aufstellung der Teams sei vor allem der Austausch der Daten ein wichtiges Instrument für den Erfolg. Durch das Zusammenführen von Adwords Daten und Daten aus der Google Search Console könnten Schwachstellen beider Kanäle offengelegt und behoben werden. Beispielsweise könne SEA bei der Keywordrecherche sehr von den Daten aus der Google Search Console profitieren, da die Daten nicht nur mehr den Longtail abbilden, sondern auch nahezu in Echtzeit vorliegen.
Mit Google Spreadsheets und Erweiterungen wie Search Analytics for Sheets lassen sich die Daten aus der Search Console und dem AdWords Konto verheiraten und auswerten.
Suchmaschinenoptimierung und Schranken: Paywall, First Click Free und Conversion via SEO
Der letzte Vortrag auf der SMX 2018 kam von Olaf Seydel und beschrieb die Auswirkungen einer Paywall Integration auf SEO. Um Google die Indexierung von Inhalten hinter einer Paywall zu ermöglichen wurde Jahre lang auf ein First Click Free Modell gesetzt. Dieses sorgte dafür, dass eine bestimmte Zahl an Artikel kostenlos aufgerufen werden konnte, wenn der Nutzer über Google kam. Dies führte dazu, dass viele User einfach die Headlines der Artikel in die Google Suche eingaben um dann den Artikel kostenlos zu lesen.
Auf Druck der Publischer wurde die Anzahl der Artikel die so aufgerufen werden konnten immer weiter reduziert. Bis Google vor kurzem mit dem Flexible Sampling das „Cloaking“ dieser Inhalte ermöglichte. Da Zeit Online über drei unterschiedliche Modelle verfügt konnte Seydel zahlreiche Insights bringen. Aktuell gibt es bei Zeit Online folgende Stufen:
- Ein Teil der Artikel ist kostenlos und ohne Registrierung aufrufbar
- Mehr Artikel bekommt man mit einer kostenlosen Registrierung
- Alle Artikel bekommt man mit einem kostenpflichtigen Abo
Die Implementierung wurde zu einem sehr umfangreichen Projekt. So musste unter anderem ein Reverse DNS Lookup eingeführt werden um sicherzustellen, dass ein User Agent Googlebot auch von Google kommt. Auch die Konsistenz der URLs musste sichergestellt werden, sodass beispielsweise keine Parameter verwendet wurden.
Neben den der technischen Umsetzung trieb auch die Ungewissheit die Verantwortlichen um wie die User reagieren würde, wenn sie von der Google Suche auf eine Paywall kämen.
Tatsächlich waren die Auswirkungen auf die Bounce Rate bei den Registrierungspflichtigen Artikeln eher gering. Bei den kostenpflichtigen Artikeln war die Absprungrate jedoch deutlich erhöht. Die User die über Facebook auf die Seite kamen sprangen noch etwas eher ab. Insgesamt konnte Zeit Online die Reichweite trotz Paywall erhöhen und auch die Conversion Rate sei zufriedenstellend.
Fazit
Die Themen der SMX zeigen deutlich: Das Search Business entwickelt sich nach wie vor rasant weiter. Während viele noch vor dem Mobile First Index zittern stehen mit Engagement und Personalisierung schon neue Themen in den Startlöchern. Mit einer 0815-One-Size-Fits-All Strategie wird man es in Zukunft jedenfalls noch schwerer haben.