Je eher SEO, desto preis“werter“
Die Site-Architektur ist entscheidend für den Erfolg, jeder Pfusch kostet hinterher richtig Geld! ->sauber planen!
SEO begleitet jeden nenneswerten Eingriff in die Website bereits in der Planungsphase -> sauber planen ;-)
In jedem Fall professionelle Tools nutzen
Mess-Metriken auswählen und ggf. implementieren
Langfristig planen und agieren
Über kurzfristige Erfolge freuen, aber keine Wunder erwarten
Wenn viel Potential da ist, kommen sichtbare Erfolge natürlich schneller
sehr hohe Nutzerdichte
Nicht so kostenintensiv
ca. 50% alle Server weltweit von Google
Einsatz
Bei (ca. 15 % der) Sucheingaben, die so nach nie eingegeben wurden
hilft beim Verständnis komplexer Suchphasen
Denken in Entitäten
können eindeutigen IDs zugeordnet werden
helfen bei der semantischen Erkennung von Bedeutungen
lassen sich Mehrfachbedeutungen bei Worten unterscheiden
Worte werden zu Attributen
erkennt Synonyme und Wortgruppen
Mehrfachbedeutung
Begriffsexploration über Abstandsparagraphen
Generierung durch Learning
Kann Bilder analysieren
Tripelstores: Zwei verbundene Entiäten
Philosophie: Die Bedeutung eines Dokuments steigt, wenn andere bedeutende Dokumente auf dieses verlinken. Es kommt dabei nicht auf die absolute Anzahl eingehender Links an.
Der PageRank wird nicht mehr sichtbar ausgeben!
Page Rank:
PR(A)
= (1-d) + d (PR(T1)/C(T1) + …PR(Tn)/C(Tn))
= PR der Seite A
PR(Ti)
= PR der Seiten Ti, von denen ein Link auf Seite A zeigt
C(Ti)
= Gesamtzahl der abgehenden Links auf Seite Ti
d
= Dämpfungsfaktor zwischen 0 und 1
PR wurde von Lawrence Page und Sergey Brin entwickelt und patentiert. Der PR bewertet grundsätzlich nicht die Inhalte in ihrer Gesamtheit der Site, sondern die Beziehungen zwischen Webseiten
Der PR einer link-“abgebenden“ Site geht nicht 1:1 auf die verlinkte Seite über. Je mehr Links aus einer Site gehen, umso weniger PR-Wert wird vererbt.
Der PageRank ist die „Urmutter“ der Linkbewertung von Google. Mittlerweile gibt es viele hundert „Signale“ für das Ranking. Trotzdem ist das Verständnis der „Vererbung“ nach wie vor wichtig!
92 % der Suchenden sehn sich nur die 1. Seite der suchresultate an
Suchvolumen nach der Entität sollte vorhanden sein
Einträge des analogen Abbilds in Verzeichnissen etc.
Einträge in soz. Netzwerken (z. B. Linkedin)
Wikipedia (OK, ist eine Herausforderung)
Ausweis via Schema.org als „Organization“
Beziehungen zu anderen Entitäten / Co-Citationen
Google versucht zu verstehen und Zusammenhänge herzustellen
<Offsite>
Ca. 20 % Suchphrasen wurden noch nie so eingegeben
Die meisten Backlinks gehen auf die Startseite
Seitens Google liegen hier keine Erfahrungswerte und wenig externen Signale vor!
Interne Signale sind notwendig. V. a.:Text und interne Links! Aber auch Domaintrust und –thema!
Was empfiehlt eigentlich Google?
Title (Bookmark-Name)
Meta-Description (zusätzliche Beschreibung; nicht direkt Ranking - relevant)
URL-Strukturen (plus 301 und rel=canonical)
Bilderoptimierung (a-Tag (genau beschrieben was auf dem Bild ist))
Ankertexte (Aufpassen mit zu ungenau beschriebenen Links -> gute Beschreibung, was bei Klick passiert)
Hx-Tags richtig und zurückhaltend nutzen
Nach wie vor extrem wichtig
Keine Aufzählungen verwenden
Mögl. keine automatische Erzeugung
Immer unique
6-8 Worte, nach Wichtigkeit verwenden
Länge ~ 65 Zeichen incl. Leerzeichen
Haupt-KW immer an den Anfang, Markennamen ggf. ans Ende setzen. Bekannte Marken ggf. auch vorne!
Mögl. keine KW von anderen Landingpages verwenden -> Kannibalisierungseffekte
Auf „klickaffines“ Texten achten
über Wortvektoren kann man die Nähe zweier Wörter zueinander berechnen
Wort 2 Vec
BERT = Bidirectional Encoder Representations from Transformers
“Vorhersagen” anderer Wörter durch statische Wahrscheinlichkeiten
Label = “Is.next.sentence”
erlaubt u.a. die Zusammengehörigkeit von Sätzen zu erkennen
MUM = Multitask Unified Modul
1000 x Leistungsfähiger als BERT (Durchsucht alle Medien)
durchsucht alle Medien
Verbindung von Text, Bilder, Videos & Podcasts (Ton)
Konzentration auf 1 Hauptkeyword (Phrase) pro Seite
Alter der Seite (seit dem ersten Crawling; US Patent 8549014 B2) ja älter & stabiler, desto vertrauenswürdiger
Verwendung des Suchterms im URL
Absatzüberschriften mit Hx (richtiges Einsetzten!)
H1 -> nur einmal
H2 usw. -> keine broken H-Kette
Fett, Kursiv, farbliche Differenzierung (richtige Anwedung wichtig)
Einsortierung der Seite in die Informationsarchitektur der gesamten Site (vom Linkgrahpen her gesehen!)
wenn man erst 4 mal klicken muss bis zur gewünschten Seite -> wichtige
Genügend (maschinenlesbarer!) Text, Empfehlung > 300 Worte
reine Anzahl Worte kein Rankingfaktor, aber nicht irrelevant -> braucht gewisse Anzahl an Worten um Schwellenwert überhaupt zu erreichen ob guter Text
Texte gut stukturieren
Verwendung von Aufzählungen (<ul> <li>) mit Keywords
Verwendung im Meta Description Tag (Folgefolie)
Description Tag -> bis zu 320 Zeichen für Google und bis zu 200 bei Bing
Tipp: Mal mit “site:domain.de” die eigene Desc-Texte kritisch oaluage!
Wie wichtig sind die Snippets (einzelne Teile der Seite)?
Hx korrekt einsetzen!
Einen mit getaggten Text immer nur einmal einsetzen!
Überschriften (h1-6) sind… wichtig… ;-)
Seiten gliedern – das mögen alle!
Transportiere ich die Message in allen Teilen der LP?
Title, Description, Überschriften
Alt-Text des Bildes, Inhalt des Artikels, Zwischenüberschriften
Keywords im Text bestimmen zum großen Teil mit, an welcher Position die Seite gelistet wird:
Keyword-Frequenz: Wie oft?
Keyword-Prominenz: An welchen Positionen?
Keyword-Gewicht: In welcher Formatierung?
Keyword-Nähe: Begriffsumgebung (Google: Snippets)
Eine Keyword-Dichte von 2 - 5% geht. Je höher, desto besser, aber auch desto risikoreicher Wichtig: Das Haupt-KW muss die höchste Dichte haben und sollte aber auch gleichmäßig über den Text verteilt sein. Tipp: Auch im letzten Satz!
Relativ (!) fehlerfreier HTML-Code
Fehlerfreie Texte (Google macht Qualitätsanalysen)
Seiten ordentlich gliedern!
Die Keyworddichte ist noch nicht ganz „tot“……auch wenn man immer wieder hört, sie wäre nicht mehr „so“ wichtig. Das bedeutet nicht, sie zu ignorieren!
…beschreibt, dass ein einzelner Begriff/Phrase ein Dokument umso besser beschreibt, je häufiger und „abgegrenzter“ er in den Dokument erscheint und je seltener er in anderen Dokumenten vorhanden ist.
P = Korrekturfaktor
je seltener desto besser geeignet als Keyyword!
= Gemeinsames Auftreten
Worte die häufig im zusammenhang mit einem Keyword verwendet werden
bestimmte Worte kommen bei einer Suchanfrage fast zwangsläufig miteinander vor -> beweisführende Therme
Bsp. Lederstiefel
Beweisführende Therme: Schuhe, Naht, Leder
Extraktion von WDF und IDF beschreiben einen Suchbegriff bereits zeimlich gut
Textvergleich aus semantischer Sicht
Warum ist Content so wichtig?
Die Nähe/Entfernung von Worten ist ein wesentlicher Relevanzfaktor für Longtail-Suchanfragen!
Und so klappt es halt nicht…
Einzahl/Mehrzahl beachten um das Topic-Keyword
Um das Topic-Keyword “Longtail”-Begriffe schreiben
Die Nähe/Entfernung von Worten ist ein wesentlicher Fehlertoleranz für Longtail-Suchanfagen
low hanging fruits kommt man leichter ran
z.B. mit Sistrix
… ranken schlecht
Tipp: Themenzentriert bloggen/publizieren
ständiges Bloggen zu einem Thema verwässert die Zuordnung von Seite zu Thema, sowohl für Besuche als durch für Google
besser: bestehende Beiträge erweitern & jeweils für neue Besucher sorgen
statt SEO-Pages besser Herzblut - Pages erstellen
Ahnung haben wovon man schreibt
Wer´s nicht glaubt, soll einfach beides mal a/b testen…
“You Don't Rank Well Because GoogleBot Is Not Impressed”
Menschen wollen oft eine Absicherung
Warum Weshalb Wie Wieso Wer Was Wo Wozu Wie lange Welche Wieviele Wann Für wen
W-Fragen: Answerthepublic.com
einfach das Fragewort und das Hauptkeyword bei Google eingeben
immer mehrere Tools anschauen
inhaltlich möglichst umfassend zu einem Thema (für bestmögliche Antwort auf Suche)
lange Texte gut strukturieren (Keywordoptimierung: Keyword sollten alle im Text vorhanden und möglichst nah beieinander sein
Hervorhebungen, Überschriften richtig einsetzen
Bilder Alt-Tag prüfen
Bilder “beschriften” mit dem Inhalt
Barrierefreiheit
Google erkennt sofort, was Bild zeigt
Prüftool
Relaunch der Seite -> Bild-URL ändert sich
Image-Bot findet altes Bild nicht mehr -> schlecht
-> “dann halt nicht”
Google-Bot kann neue URL finden, aber nur wenn verlinkt
-> wenn neue URL gefunden gibt diese an Image-Bot weiter
-> dauert aber lange
Lösung: alte URL vorerst lassen & nicht löschen damit Google das finden kann, solange neue noch nciht bekannt
Keyword als Filename
Bildunterschriften machen (im Quellcode möglichst nah am Bild)
Alt-Tag belegen, nicht nur mit dem Keyword, aber kurz (2-6 Worte, nicht mehr als 70 Zeichen)!
Bildgröße
mindestens 30x30 Pixel
größer ist besser als kleiner
mindestens 5 KB
optimal 250-600 Pixel, nicht über 1.000 Pixel
keine exotischen Formate (z. B. 600x50)
Bild-Title vergeben
In der Nähe des Bildes das Keyword nochmals aufnehmen. Am besten in H2 Formatierung
Seit 3/2012 ist „freshness“ ebenfalls ein wichtiger Faktor!
Das „wichtigste“ Bild immer above the fold! (Heroshot über der Falz)
bei Verwendung von Stockfotos
nicht Bild von Adobe Ranking-Algorithmus
besser: Sonderabfrage in Google
<Onsite>
Derzeit wieder stark diskutiert…
Möglich wären Referrer, Chrome, Short/Long Klick zur SERP und einige andere
Siehe FTC Report (in Unterlagen)
fast gleicher Content
Google zeigt bei gleichen Texten immer nur eine einzige der Webeiten an. Alle anderen werden unterdrückt
ähnliche/ gleiche Produktbeschreibung
stellen Sie nicht die Texte ins Web, die alle anderen auch haben!
Steuerung mit Canonical-Tag:
Arbet der Shop/ das CMS mit an den URL angehängten Steuerungsparametern, kann man seit kurzem mit dem Canonical-Tag dem Robt die eigentliche Adresse der Seite anzeigen.
Der Eintrag im Head:
entsteht durch:
durch fehlerhafte Serverkonfigurationen
Steuerparameter am Ende der URL
durch Mehrfachkategoriesierung in Shops
durch Betrüger, die Texte einfach kopieren
Keine unterschiedlichen Schreibweisen verwenden, auch wenn das technisch funktioniert
www.domainname.de
www.domainname.de/
domainname.de
Permanente Weiterleitungen mit 301 auf die Root verwenden (also http://domainname.de mit 301 auf http://www.meine-site.de)
Typo3-Problem: Alle internen Homelinks gehen nicht auf die Root!
unnötig -> near duplicate content
Wahrgenommene Ladegeschwindigkeit
Der Largest Contentful Paint ist die Zeit vom Beginn des Ladestarts der Seite bis zum fertigen Rendern (Anzeigen) des größten Inhaltselements (Bilder) im Sichtbereich.
macht häufig Probleme weil Unternehmen schlampern
Pro Seite kann es zunächst mehrere LCPWerte geben, das hängt von der Ladereihenfolge ab
gewertet wird am Ende aber der letzte LCP
schlecht: Slider/Akkordeons lassen grüßen!
versauen fast jeden LCP-Wert (hier nie das größte Bild nehme)
Immer das größte Element zählen
Quick: LCP optimieren
Bestimmen, welches Element der LCP ist
Bei Bild: Brauche ich wirklich die hohe Auflösung?
Immer: Brauche ich wirklich einen Slider?
Antwort: Nein, nie. Never. Rien. Nada. Nüll. Nix. Pfui. Aus!!!
Bei zunächst verdeckten Inhalten: Bilder ggf. erst später nachladen, um ein anderes Element zum LCP zu machen
Es geht beim LCP nicht nur um Speed, sondern v. a. auch Volumen! Trotzdem kann „lahm“ sich natürlich auf andere Metriken auswirken
TTI = Zeit, bis die Seite interaktiv bedient werden kann
FID = Zeit, bis die Seite nach einer Interaktion „reagiert“ auf…
Tap, Klick, Tastatureingabe – aber nicht scrollen!
Achtung: Es geht beim FID nur um die ERSTE Input Verzögerung!
Ladereihenfolge beachten
Welche Skripte sind direkt wichtig?
Tipp: Look for TBT (Total Blocking Time)
Visuelle Stabilität
Wie „stabil“ verhält sich das Layout und wie stark sind visuell (unerwartete) Änderungen, wenn sich etwas auf der Seite ändert?
Textfokus wird ständig entzogen durch z.B. nachgeladenes Banner, welches Text verdrängt
Layout shift score = impact fraction * distance fraction
Jeder Layout Shift (LS) zählt auf den kummulierten Wert ein!
Quick Fix für 80% der CLS - Problem(chen)
Inline Dimensionen für Bilder hinterlegen z. B. height=„380“ width=„560“
height=„380“ width=„560“
height: calc(45vw/2); width: 45vw
heigth: auto; width: auto
Dito für iframes .iframeWrapper {…px*px overflow: hidden
.iframeWrapper {…px*px overflow: hidden
Platzhalter für dynamische Contentelemente
Wenn das nicht reicht: Feucht durchwischen!
JavaScript durchflöhen
CSS bereinigen
unnötige DOM
Elemente raus Elemente von Drittanbietern reduzierbar?
nur die Field Data wichtig für CWV
Inzwischen: Bei Felddaten grau, wenn nicht genügend Daten vorhanden
Origin Summary
Mittelwert über die gesamte Domain Immer dann, wenn für URL nicht genügend Einzeldaten vorhanden sind
Es kann bis zu 28 Tage dauern, bis man Änderungen bei den Field Data sehen kann!
Google MyBusiness (verifizieren)
Längere Beschreibung, unique! Korrekte Kategorien auswählen; Suchgenerator: http://blumenthals.com/Google_LBC_Categories Mind. fünf Bilder hochladen, je mehr, desto besser
zufriedene Kunden auffordern zu bewerten
Google Reviews Sehr wichtiger Rankingfaktor! (Zufriedene) Kunden animieren, leicht zugänglich machen, ggf. Incentives Negative Beiträg so schnell wie mögl. beantworten
Alle Review Quellen beachten/nutzen
Links, mögl. auch entsprechend lokal
Ankertexte mit der Ortsbezeichung
Tipp: Such-/Ergebnisvergleich Google~Web.de (Bei Web.de kommen auch Google-SERPs, aber OHNE lokale Berücksichtigung)
Klickrate in der SERP (CTR)
Niedrige Bouncerate zurück zu Google - Messen und bei >40% ggf. gegensteuern!
Verweildauer auf der Site
(wenn deutlich unter 2-3 Min. ggf. gegensteuern)
Besuchsfrequenz (Wiederholungsbesuche fördern)
Besuchsanlass
(Type-in, via Links, via Google organisch/AdWords, aber auch Suchkeywords plus Keyword-Typ)
= Absprungrate (der Anzahl an Besuchern, die nur diese eine URL aufgerufen haben)
Prozentzahl derjenigen, die nur EINE Seite öffnen und anschließend wieder weggehen.
„Google Analytics ermittelt die Besuchsdauer anhand der Zeit, die zwischen Seitenaufrufen verstreicht. Die letzte Seite eines Besuchs wird nicht erfasst, da es keinen nachfolgenden Seitenaufruf gibt.“
Als Bounce wird gewertet:
Der Browser wird geschlossen
Es wird manuell eine neue Domain/URL in der Browserleiste eingetippt
Klick auf den Backbutton
30 Min. keine weitere Aktion auf der Seite
Links aus dem Content ziehen am besten - im Footer am schlechtesten!
Beurteilung der Rolle eines Knotens
Komplexe Analysen bzw. Visulalisierungen über kostenloses Tool Gephi
Hat Seite B (mit dem canonical) mehr Eingangslinks als die eigentliche Seite C, verwirft Google die Anweisung und ignoriert das Tag und Seite C! Passiert das auf vielen Seiten, werden ggf. alle canonicals ignoriert!
Erst in der alten Struktur aufräumen!
Dann Design und weitere Änderungen durchführen
Dann „live“ gehen und monitoren!
Überflüssiges, wertloses raus, 401 (gone)
Umleitungen machen, 301
Duplicate Content kennzeichnen, canonical
Content überarbeiten (aktualisieren, erweitern, teilen etc.)
Seiten schneller machen (Speed < Sek.)
Komplette Datenübersicht erstellen (z. B. Frog)
Ressourcen realistisch planen
Hierarchische Platzierung einer linkgebenden Seite (aus Sicht der Suchmaschine!)
Textsnippets vor und nach einem Link
Ähnliche Suchbegriffe auf der linkgebenden Seite (Thematische Nähe)
Alter des Links (US Patent 8549014 B2)
Anzahl der abgehenden Links einer Seite
„Beziehungen“ zwischen linkgebender und linkempfangender Site
Class-C Net (192.172.056.XXX)
Linknetzwerkanalyse
Site-Owner (natürliche Personen)
eigene Verlinkungen werden fast nicht gewertet
Es gibt keine Zentrale Instanz die alle Links zählt diese variiren ja nach Tool (Google, Sistrix …)
Mögliche Kriterien:
Linkverhältnis intern/extern Domain und/oder Seite
Wechselnde Linktexte bei gleichem Linkziel
Linktextwechsel über die Zeit
Verhältnis Deeplinks zu Startseitenlinks
Anzeichen von PR-Scuplting
Fehlen von Domainnamen in den Linktexten
Externe Links ohne inhaltlichen Zusammenhang zur Site
Unterschiedliche Topics der extern verlinkten Sites
Werthaltige/“verdächtige“ Keywords auf den Linktexten
Alter des Linkbestehens
Linkwechsel in bestimmten Intervallen (z. B. monatlich)
Keine/wenig Intext-Links
Nicht natürlich wirkende Ge- schwindigkeit beim Linkaufbau
Bezahlte Links werden immer gefährlicher
Es muss wirken!
Suchen
Validieren
Setzen (lesen)
Tracken
Trust
Authority
Impressum, Author-Tag,
Logo, Webmaster Tool Account, Domainpopularity, Alter der Domains, Hosting, …
Domainpopularity, Wenige ausgehende Links, qualitativ hochwertig und „weiterführend“, Ähnliche Themen /-fokus, Mögl. viele eingehende Links von starken Expertensites, …
Trotzdem haben themenrelevante Links (intern und extern) noch immer eine sehr starke Bedeutung!
Kernfrage: Wer ist mit wem verwand?
Gleicher IP D-Block
Gleicher Provider
Gleicher Admin C
Gleiche Faxnummer
Identische Google-Accounts (Google Search Console, Analytics, Mail etc.)
Gleicher Adsense-Code
Gleiche Adresse im Impressum
…
Wie „lernen“ Maschinen?
Lange Hostnamen >45 Zeichen >5x „.“ >10 Ziffern
(80 der 100 längsten Domains -> Porn, 11 Financial ;-) (maschinell erstellt)
kein Logo
Ungewöhnliche Muster im URL
Viele Domains auf einer IP (IP-Adressen sind das Leute)
Linkeigenschaften und –muster (z. B. grob 60 Outbounds/Page (2002))
DC /NDC (Shingling Algorithmus, n-grams Verteilung)
9 Mio. Domains auf einer IP (3,5 % aller IPs >10.000 Do
„Core“ Algorithmen:
laufen ständig – live
viele kl. Änderungen
Filter Updates:
Werden als Projekt entwickelt
in Abständen manuell gestartet
„Filtern“ den Datenbestand
„Straf“-Flags bleiben bis nächstes Update bestehen!
Wenn gut genug, Überführung in die Kern-Algos
manuelle Maßnahmen:
Werden manuell verhängt
Hinweis in der Search Console
Gründe beseitigen
Reconsideration Request nötig
Werden manuell aufgehoben
Downrank: Man hat nichts „falsch“ gemacht, Google tickt einfach nur anders/neu. Hier hilft nur eine gute Analyse!
Gary Illyes: Google hat wahrscheinlich Mio. von „BabyAlgorithmen“, die auf Detailsignale achten bzw. danach suchen. Einziger mögl. Hinweis: Eine Crawling-Spitze.
Bisher ~ 3 Core-Updates p.a., Rest sind kl. Änderungen, z. B. 2020 waren es 4.500 Änderungen (ca. 12/Tag). Dazu kommen > 600.000 Experimente/Tests (2020).
Dauer Core-Update: Wenige Tage bis 2 Wochen.
Es kann helfen, Inhalte zu aktualisieren
Genereller Tipp von Google: Die Checkliste mit 23 Fragen ehrlich durcharbeiten. Erhlich! Siehe Folgefolien.
= Neues (gewichtetes) Rankingsignal
Zunächst nur für englische Sprache
Bisher wenig „Rumor“, aber einzelne Seiten haben über 50% verloren
Wenige schlechte Seiten können die gesamte Domain gefähren
„…das Entfernen nicht hilfreicher Inhalte [kann] zu einem besseren Ranking eurer sonstigen Inhalte beitragen“ O-Ton Google
Clickbacks zu Google vermeiden/vermindern
Korrekte Fakten
Rollout läuft derzeit noch, D nicht bekannt
Wen wird es (und ganz sicher weitere nachfolgende Justierungen) vor allem treffen?
Wenn ich auf Deiner Seite etwas gelernt bzw. gute neue Infos gefunden habe, bin ich happy!
Zuletzt geändertvor einem Jahr