SEO ist die Abkürzung für “Search Engine Optimization”. Es geht vereinfacht gesagt um alles, was man tun kann, um eine Website so zu gestalten, dass diese bei den gängigen Suchmaschinen Top-Positionen erzielt. Und das ist eine ganze Menge. Da SEO kein feststehender Begriff ist, wird aber oft vieles in einen Topf geworfen. Wichtig ist es da, erst einmal zu verstehen, wie Suchmaschinen überhaupt arbeiten.
Die folgende Darstellung ist stark vereinfacht, hilft aber die grundlegende Funktionsweise nachzuvollziehen.
Bevor eine Seite über Suchmaschinen auffindbar ist, muss sie von einem Suchmaschinen-Crawler “abgeholt” und dann in den Index aufgenommen (“indexiert”) werden. Erst dann kann das Ranking, also die Auswahl und Sortierung der Suchergebnisse zu einer Suchanfrage, erfolgen.
Damit diese drei Schritte reibungslos funktionieren, optimieren wir als SEOs und Content Manager unsere Webseiten.
Crawling
Damit der Crawler alle wichtigen Seiten finden kann, darf es keine technischen Blockaden geben, die das verhindern. Zum Beispiel müssen die Seiten erreichbar und valide sein, also einen 200 Status Code ausgeben. Die robots.txt muss korrekt konfiguriert sein und darf keine wichtigen Seiten vom Crawling ausschließen. Besonders wichtig ist, dass der Crawler die relevanten Inhalte auch lesen kann. Vor allem die Verwendung von JavaScript kann hier zu Problemen führen. Dazu wird es einen separaten Artikel geben, da wir uns hier schon in den Bereich “Technical SEO” bewegen.
Man sollte seine Webseite auch so strukturieren, dass hohe Klicklevel vermieden werden. Sowohl die Nutzer als auch die Crawler sollten idealerweise nicht mehr als dreimal ausgehend von der Startseite klicken müssen, um an eine relevante Seite zu kommen. Ist eine Seite besonders tief versteckt, kann es sein, dass Crawler sie gar nicht erst finden. Generell gilt, dass Seiten mit einem hohen Klicklevel im Vergleich zu Seiten mit einem niedrigen Klicklevel schwerer zu erschließen sind. Das kann wiederum einen Einfluss auf das spätere Ranking haben.
Betreibt man eine Seite, die in verschiedenen Sprachen aufrufbar ist, sollte man außerdem sicherstellen, dass die jeweiligen Übersetzungen über hreflang-Annotationen miteinander verbunden sind. Auch das hilft Crawlern, sich durch eine komplexe Seite zu navigieren.
Um sicherzustellen, dass der Suchmaschinen-Crawler wirklich alle Seiten findet, bietet es sich vor allem bei größeren Domains an, eine XML-Sitemap zu erstellen, in der alle indexierbaren Seiten aufgelistet sind. Diese Sitemap referenziert man in der robots.txt und macht sie so für Crawler zugänglich.
Eigentlich selbstverständlich, aber trotzdem erwähnenswert: Irrelevanter oder alter Content sollte - sofern er keine Backlinks erhält - lieber gelöscht werden, anstatt auf der Seite zu verbleiben. Das gleiche gilt für Links. So erspart man dem Crawler und dem Nutzer, sich unnötig mit veralteten Seiten zu beschäftigen und spart sogenanntes Crawl Budget.
In einem Satz: Die eigene Seite sollte stets (technisch) sauber, gepflegt und aktuell sein.
Indexierung
In den Index aufgenommen werden nur Seiten, die
- valide und erreichbar sind,
- nicht auf noindex stehen (meta robots Tag),
- kanonisch sind (enthalten keinen Canonical-Tag mit Verweis auf eine andere Seite),
- vom Crawler gefunden werden können (durch Sitemap oder interne Links).
Beim Thema Crawling und Indexing geht es also vor allem darum, die technischen Voraussetzungen dafür zu schaffen, dass eine Seite überhaupt in den Index einer Suchmaschine aufgenommen werden kann. Wollen wir nun auch, dass unsere Seiten gut ranken, kommen zusätzlich noch die Aufbereitung des Contents und andere Faktoren ins Spiel.
Ranking
Wir möchten also relevanten Content produzieren, der die passenden Besucher anzieht und idealerweise bei Google auf Position 1-3 rankt. Klingt einfach, ist es aber nicht. Denn um herauszufinden, was die Nutzer interessiert, ist eine Menge Recherche nötig, vor allem nach den richtigen Keywords. Worauf man dabei achten sollte, erklären wir hier.
Aus Marketing-Perspektive stellen wir uns die folgenden Fragen:
- Wie viele Menschen suchen nach einem bestimmten Produkt?
- Mit welchen Begriffen tun sie dies?
- Auf welchem Endgerät?
- Welche Fragen und Probleme haben sie?
- Wann und wo suchen sie nach welchem Produkt?
Ein wesentliches Element, um diese Fragen zu beantworten, sind Keywords. Sie sind sozusagen das Salz in der SEO-Suppe. Keywords sind mehr als einzelne Begriffe, die zum eigenen Produkt passen. Mit den richtigen Keywords erschaffst Du gleich einen inhaltlichen Rahmen, der für klare Kontexte sorgt. Wohl genauso wichtig für das Ranking sind Backlinks, also fremde Seiten, die auf die eigene Seite verlinken und ihr somit sprichwörtlich den Rücken stärken. Doch zunächst soll es um Keywords gehen, denn in der Natur von Backlinks liegt auch, dass man sie nicht unbedingt selbst beeinflussen kann.
Short-Tail Keywords vs. Long-Tail Keywords
Es motiviert zwar ungemein, Inhalte auf Keywords zu optimieren, die jeden Monat tausendfach gesucht werden. Doch auch kleine Nischenbegriffe können sehr wertvoll sein, wenn sich dahinter eine aktive Zielgruppe verbirgt, die genau weiß, wonach sie sucht.
Ein Beispiel: Das Wort “Fußball” wird jeden Monat etwa 174.000 mal gesucht, “Fußball kaufen” hingegen nur 1200 mal. Betreibt man einen Online-Shop für Sportartikel, sollte man seine Fußball-Produktseite nicht nur auf das Keyword “Fußball” optimieren, sondern auch auf “Fußball kaufen”. Auch wenn dieses Keyword deutlich seltener gesucht wird, sind die Nutzer, die dieses Keyword eingeben, viel wertvoller für einen Online-Shop als Menschen, die sich im Allgemeinen für Fußball interessieren und vielleicht gar nicht nach dem Produkt “Fußball” gesucht haben. Hinzu kommt, dass es viel mehr Konkurrenz-Seiten zu dem Keyword “Fußball” gibt als zu “Fußball kaufen”. Die sogenannte Keyword Difficulty ist also hoch. Fußball ist ein klassisches Short-Tail Keyword, “Fußball kaufen” ist schon eher ein Long-Tail Keyword. Da geht aber auch noch mehr, zum Beispiel “Fußball kaufen Spielzeug”.
Man kann nicht sagen, dass es besser oder schlechter ist, auf Short-Tail oder Long-Tail Keywords zu optimieren. Beide haben ihre Vor- und Nachteile: Während Short-Tail Keywords meistens ein höheres Suchvolumen haben, ist die Keyword Difficulty (die Schwierigkeit für ein Keyword auf der ersten Google Seite platziert zu werden) bei Long-Tail Keywords oft niedriger und die Conversion Rate höher, da die Suchintention der Nutzer eindeutiger ist.
Andersherum gilt für Nutzer einer Suchmaschine, dass sie erfolgreicher sind, je konkreter sie suchen. Jemand, der einen Fußball für sein Kind kaufen möchte, sollte das auch deutlich machen und nicht einfach nur nach “Fußball” suchen.
Short-tail Keywords | Long-Tail Keywords |
---|---|
+ hohe Suchvolumina | - niedrige Suchvolumina |
- große Konkurrenz | + kleine Konkurrenz |
- kein Fokus / unspezifisch | + starker Fokus / spezifisch |
- niedrige Conversion Rate | + hohe Conversion Rate |
- wenige pro Thema verfügbar | + viele pro Thema verfügbar |
Wie Algorithmen das Denken lernen - Google RankBrain
Damit Google unsere Suchanfragen auf den indexierten Content mappen kann, benötigt es einen Algorithmus, der sozusagen die Sprache verstehen kann. Dafür wurde Google RankBrain entwickelt.
To an equestrian a horse is a large 4 legged animal, to a carpenter, a horse has 4 legs, but it doesn't live in fields or chew hay, to a gymnast, a horse is something I believe you do vaults upon; with RankBrain context matters, and making sure you capture that context is possibly a key to optimizing for this machine learning approach.
Rand Fishkin, MOZ.
Die Frage ist also: Woher weiß Google, ob es sich bei dem englischen Wort “horse” um das Tier, um ein Sportgerät oder um eine Werkbank handelt? Das Stichwort heißt “Kontext” und hier kommt RankBrain ins Spiel:
Was verbirgt sich also hinter RankBrain?
Dieses Herzstück des Google-Algorithmus nutzt Machine Learning, um einem Suchbegriff möglichst relevante Ergebnisse zuzuordnen. Das bedeutet zunächst, dass wir mitlernen müssen, um zu verstehen, wie RankBrain inhaltliche Bedeutung generiert.
Die früher oft angewandte Strategie, eine Seite nur auf ein bestimmtes Keyword zu optimieren, ist schon lange nicht mehr erfolgsversprechend. Heute sprechen wir von ineinander verwobenen Topic Clustern und vielem mehr. Das Google BERT-Update macht vor allem klar: Wer eine erfolgreiche Website betreiben möchte, braucht vor allem hochwertig produzierten Content, der die Intention der Suchenden kennt und in eine gewünschte Handlung übersetzt.
Soweit so gut, doch es gibt auch einige Kniffe, mit denen wir hochkomplexen Algorithmen wie RankBrain zusätzlich die Arbeit erleichtern können. Wir sprechen dabei auch von Natural Language Processing (NLP), also der zunehmenden Fähigkeit von Computern, die menschliche Sprache auch in ihrer inhaltlichen Bedeutung zu erschließen.
Falls Du mehr zu RankBrain erfahren willst: Moz hat das Thema sehr detailliert und mit vielen illustrativen Beispielen aufbereitet.
Wie machen wir unseren Content fit für NLP?
Folgende Punkte sollten wir beachten, damit unser Content besser von Algorithmen verstanden wird:
- Fragen mit direkten Antworten verbinden,
- Keine komplizierten Satzstrukturen verwenden,
- Umschreibungen nutzen, um Keywords genauer einzugrenzen, aber nicht um den heißen Brei herumreden,
- Typische Wörter im Themenfeld identifizieren und nutzen,
- Entitätenbezüge eindeutig darstellen (z. B. kann es bei der Verwendung von Pronomina zu Zweideutigkeiten kommen).
Weiterhin bietet es sich an, zusammenhängende Keywords zu gruppieren. Ein Begriff wie “Pferd” impliziert viele weitere Ausdrücke, die den Hauptbegriff semantisch stützen können. Wenn wir von "Sattel" und "Mähne" sprechen, wird Google verstehen, dass wir das Reittier meinen und kein lebloses Sportgerät. Auch Begriffe, die wir nicht verwenden, erzeugen Bedeutung: Taucht der “Pferdekuss” in keinem Text über Pferde auf, lernt der Algorithmus, dass der Begriff wohl nichts mit Pferden zu tun hat. Reden wir sogar von “Warmblütern” und “Hannoveranern”, zeigen wir, dass wir von ganz bestimmten Pferden reden. So können wir gezielt die inhaltliche Güte von Artikeln steigern. In vielen Fällen passiert das ganz von selbst, nämlich durch das Fachwissen des Autors / der Autorin.
Darüber hinaus ist die Struktur eines Textes im Web extrem wichtig. Denn wer den roten Faden verliert, verliert meistens auch den Nutzer. Schlicht weil es im Web immer Alternativen gibt und niemand gezwungen ist, sich durch unverständliche Texte zu quälen.
Strukturelles SEO & Keyword Mapping
Die erste Erkenntnis: Texte werden am Computer oder Smartphone ganz anders gelesen als auf Papier. Vor allem eine ausgeprägte Struktur mit vielen Überschriften, Listen und Nummerierungen macht sich online bezahlt. Ebenso wie HTML Tags und eine durchdachte Content-Struktur.
Unter Keyword Mapping verstehen wir Folgendes: Wir ordnen unsere Keywords nach Themen und Suchintention. Wie auf einer Landkarte entstehen dann Knotenpunkte, die sinnbildlich für die einzelnen Pages unserer Website stehen.
Zusätzlich empfiehlt es sich, die Suchergebnisseiten (“SERPs”) für jedes wichtige Keyword durchzugehen, um ein Gefühl dafür zu bekommen, welche Art von Content am besten geeignet ist. Oder mit anderen Worten: Was kann ich tun, damit meine Seite inhaltlich besser wird als alle anderen Seiten, die momentan zum gewählten Keyword ranken? Wer solche Fragen stellt, arbeitet gleich effektiver, weil er primär den Nutzer im Blick hat und nicht nur das Ranking.
SEO ist eine Daueraufgabe
Das bedeutet vor allem, dass SEO nichts ist, was man einmal durchführt und dann nie wieder. Nur fortlaufend optimierte Websites kommen in den Genuss, bei Google dauerhaft ganz oben angezeigt zu werden. Auch deshalb haben viele Firmen eigens Jobs dafür geschaffen und entsprechende Teams aufgebaut. Gleichzeitig ist SEO weiterhin eine klassische Agentur-Dienstleistung, da sich hier Wissen und Erfahrung bündeln.
Wir fassen zusammen. Optimaler Content sollte mindestens diese vier Eigenschaften besitzen:
- zugänglich und gut designt,
- einmalig und gut geschrieben,
- strukturiert und gut aufgebaut,
- zielgruppenorientiert und inhaltlich relevant.
Damit wird das Crawling der Suchmaschinen zum Kinderspiel. Nicht vergessen: Crawling kommt vor der Indexierung. Was nicht gecrawlt werden kann, wird auch nicht in den Google Suchergebnissen anzeigt. Doch da wollen wir hin: Denn Ziel einer jeden SEO-Maßnahme ist es, ein gutes Ranking zu bekommen.
Was bedeutet das für meine Website?
Es gibt noch einige weitere Kniffe, wie man seine Webpräsenz auf den einzelnen Seiten selbst (also “on-page”) optimieren kann. Wir stellen die Wichtigsten vor:
- Meta Title
- Der Title sollte kurz und knackig sagen, was der User von der Seite erwarten kann und in jedem Fall das wichtigste Keyword enthalten.
- Meta description
- Eine gut geschriebene, präzise Meta description macht Deine Seite in den Google-Suchergebnissen attraktiver, da der Nutzer direkt weiß, was er erwarten kann.
- Header Tags
- Header Markup sollte immer hierarchisch verwendet werden (die H3 sollte erst verwendet werden, wenn vorher bereits eine H2 verwendet wurde). Die H1, die nur einmal pro Seite auftreten sollte, enthält idealerweise das Primär-Keyword, und die H2en die sekundären Keywords. Header dienen außerdem zur Strukturierung von Inhalten.
- Formatierung & Lesbarkeit
- Strukturierung und Markup sind nicht nur für die Nutzer wichtig, sondern auch für Suchmaschinen. Vor allem die korrekte Verwendung von Überschriften oder von Listen kann dabei helfen, dass Inhalte besser eingeordnet werden können.
- Internal links
- Interne Verlinkungen sind wie ein inhaltliches Gerüst Deiner Seite, wenn sie sinnvoll eingesetzt werden wie beim Pillar-Cluster-Prinzip.
- Seitenarchitektur & Klicklevel
- Google beurteilt die Relevanz von Seiten auch danach, wie schnell sie von der Startseite aus zu erreichen sind, also wie viele Klicks man benötigt, um dorthin zu gelangen. Deshalb sollten alle wichtigen Seiten ein niedriges Klicklevel haben. Domains mit vielen Seiten sollten deshalb eine Seitenarchitektur etablieren, die es ermöglicht, alle Seiten über möglichst kurze Wege zu erreichen.
- Ankertext
- Interne (und auch externe Links) erhalten mehr Bedeutung, wenn die Ankertexte den Inhalt der verlinkten Seiten möglichst gut beschreiben. Domainintern sollte man den Link eher auf Inhaltswörter legen, die zum Inhalt passen. So können Suchmaschinen die inhaltlichen Beziehungen zwischen Seiten und den Inhalt der verlinkten Seite besser verstehen. Bei externen Links bieten sich eher Ankertexte wie “Klicke hier” oder “Mehr erfahren” beziehungsweise längere Phrasen an, damit die Suchmaschine keinen Linkkauf vermutet. Zeigen tausende Domains auf die eigene Seite mit demselben Ankertext, kann das schnell nach Manipulation (Linkkauf) aussehen.
- Linkvolumen
- Salopp gesagt: Eine hohe Anzahl an Links, die auf eine Seite zeigen, vermitteln der Suchmaschine, dass diese Seite relevant ist. Eine geringe Anzahl an Links bedeutet im Umkehrschluss, dass eine Seite nicht so relevant ist. Allerdings spielt zusätzlich auch die Gewichtung der Links eine große Rolle. Ein Link von einer Seite, die selbst viele Links bekommt, fällt demnach mehr ins Gewicht als ein Link von einer Seite, die nur wenige Links erhält. Anzahl und Gewichtung zusammen ergeben den sogenannten “Link Juice”.
- Redirection
- Umleitungen, die intern verlinkt sind, bedeuten immer einen weiteren “Sprung”, den ein Crawler machen muss, um zur Zielseite zu gelangen. Deshalb sollte man idealerweise keine internen Links setzen, die auf einen Redirect zeigen. Redirects sollten vor allem bei Relaunches (bei denen sich die URLs verändert haben) oder für defekte Backlinks (um diese nicht zu verlieren) verwendet werden.
- Image optimization
- Auch Bilder kann man für SEO optimieren. Hier sollte man vor allem darauf achten, dass die Dateinamen und alt Tags die relevanten Keywords beinhalten und das Bild bestmöglich beschreiben. Alt Tags werden aber auch dann relevant, wenn ein Bild nicht angezeigt werden kann oder wenn ein blinder Nutzer eine Seite aufruft. In beiden Fällen wird statt des Bildes der alt Tag ausgegeben (visuell oder akustisch).
- XML Sitemap
- XML Sitemaps sind vor allem für große Domains wichtig. Sie enthalten im Idealfall nur indexierbare Seiten, und zwar alle. So wird sichergestellt, dass Suchmaschinen auch alle Seiten finden, die in den Index aufgenommen werden sollen. Sitemaps erleichtern SEOs außerdem das Monitoring der Indexierung. Man kann in der Google Search Console direkt sehen, welche Seiten indexiert wurden und welche nicht (und wenn Google nett ist, erfährt man auch, weshalb).
- URL-Design
- URLs sollten menschen- und maschinenlesbar sein, also keine kryptischen Zeichenfolgen, sondern sinnvolle Wörter beinhalten. Außerdem sollten URLs nur so lang wie nötig sein. Nutzer klicken ungern auf lange, unlesbare URLs und auch den Suchmaschinen hilft es, wenn die URL die relevanten Keywords enthält.
- Protocols: HTTP vs. HTTPS
- Sicherheit ist für Nutzer und für Suchmaschinen das A und O. Deshalb sollte das SSL-Zertifikat immer aktuell sein. Auch sollte man sogenannten “Mixed Content” vermeiden, also keine Ressourcen oder Seiten referenzieren, die unverschlüsselt über HTTP geladen werden.
Es gibt allerdings noch eine Reihe technischer Aspekte, die wir beachten müssen, um sicherzustellen, dass alle wichtigen Seiten indexiert werden. Im Fachjargon spricht man dann von “technischem SEO”.
Was ist SEO? Ja, was denn nun?
Wir fassen uns kurz.
SEO bedeutet…
- wir sorgen dafür, dass Nutzer und Crawler relevante Informationen finden und verstehen
- wir verstehen, wonach Nutzer suchen und warum
- wir erstellen hochwertigen Content für Nutzer und Suchmaschinen
- wir schaffen Vertrauen und inhaltliche Glaubwürdigkeit
- wir platzieren den Content prominent in den Suchergebnissen