Wir haben mit unserem Technical Senior SEO Manager Uwe Mosgallik zum technischen SEO gesprochen. Seit 2004 beschäftigt er sich mit SEO und ist damit fast ein SEO der ersten Stunde. Alle wichtigen technischen Google-Veränderungen hat er mitgemacht. In diesem Interview gibt er uns einen Einblick, was beim technischen SEO wichtig ist, wie man ein technisches Audit durchführt und was Unternehmen machen können, um die SEO-Performance zu verbessern.
Seit wann machst Du SEO und wie bist Du zum SEO gekommen?
Uwe Mosgallik: Offiziell bin ich seit 2007 als SEO-Manager tätig. Wenn man es aber genau nimmt, habe ich schon 2004 SEO gemacht. Allerdings wusste ich das zu dem Zeitpunkt noch gar nicht, dass das ein eigenes Berufsbild ist. Ich war zu der Zeit Webdesigner. Ein Kunde, für den wir die Website gebaut hatten, kam dann zu mir mit der Bitte, besser bei Google auffindbar zu sein. Wir haben dann mit den Keywords „rumhantiert“ und ganz viele Optimierungen ausprobiert. 2007 bin ich dann zu einer TYPO3 Firma gegangen und wurde als TYPO3-Experte dazugeholt. Das hat sich dann aber ganz schnell geändert. Ich war dann plötzlich SEO-Manager. So bin ich in den Beruf eingestiegen.
Wenn Du 2004 schon SEO gemacht hast, dann bist Du fast ein SEO der ersten Stunde. Google wurde ja erst 1998 gegründet.
Uwe Mosgallik: Ja, es gab natürlich schon ein paar Suchmaschinenoptimierer, die noch etwas früher damit angefangen haben. Da ging es noch um die Optimierung bei Yahoo und solche Geschichten. Ich bin tatsächlich in das Thema eingestiegen, als Google immer bekannter wurde und eine der meist genutzten Suchmaschinen hierzulande wurde. Aber das SEO von damals kann man natürlich nicht mit dem SEO von heute vergleichen. Das hat damals noch sehr in den Kinderschuhen gesteckt.
Im SEO gibt es ja viele verschiedene Facetten. Wie kam es, dass Du Dich auf das technische SEO spezialisiert hast?
Uwe Mosgallik: Unsere SEO-Strategie war ja damals – im Vergleich zu heute – sehr simpel. „Lasst uns einen Text schreiben, der mit Keywords bis oben hin vollgestopft ist“. Da wurden quasi sinnlose Formulierungen im Text verwendet. Hauptsache die Sache rankt am Ende. Und es hat ja auch eine Zeit lang super funktioniert, muss man sagen. Unser Job bestand damals darin, diese Keyword-Texte auf der Website zu implementieren. Das hat in 80 % der Fälle gut funktioniert. Bei 20 % war die Website allerdings technisch so schlecht, dass es immer wieder krasse technische Probleme gab. Ich habe dann irgendwann gesagt, dass das so nichts bringt. Weil die Seiten am Ende auch nicht gut ranken konnten bei so einer katastrophalen technischen Ausgangslage. Und das war dann quasi mein Start in das technische SEO. Ich habe mich damals viel mit den Kundenwebsites beschäftigt und geprüft, was man tun kann, damit die Seiten technisch so sauber sind, dass das SEO am Ende auch funktioniert.
Das heißt, Ihr habt damals SEO gemacht – obwohl die Seiten eigentlich technisch zu „schlecht“ waren?
Uwe Mosgallik: Korrekt, das kann man sich heute nur noch zum Teil vorstellen. Damals waren die Internettechnologien ja auch noch in den Kinderschuhen. Wir hatten da Websites vorliegen mit miserablem html-Code. Das war manchmal so vermurkst, dass sogar der Browser Probleme hatte, die Seite korrekt aufzurufen. Es ist klar, dass die Suchmaschine dann noch weniger mit dem Content der Seite anfangen kann. Damals wurde auch noch viel mit Frames und diesen Dingen gemacht. Webseiten mit doppeltem body-Tag und solche Themen kamen dann beispielsweise vor.
Wie hat sich das technische SEO dann in der Phase entwickelt?
Uwe Mosgallik: Wir haben dann versucht, immer mehr Struktur in den Code der Seiten zu bekommen. Zudem haben wir einen größeren Fokus auf die technische Korrektheit gesetzt – zusammen mit dem Kunden, der dafür ja teilweise viel Geld bezahlen musste, damit die Website besser funktioniert.
Kann man sagen, dass die technischen Probleme einer Website damals größer waren als heute? Also mit dem Fortschritt in der Internettechnologie und den Content Management Systemen …
Uwe Mosgallik: Die technischen Probleme der Websites waren damals nicht größer als heute – würde ich zumindest behaupten. Ich sehe es mehr so: Die technischen Probleme haben sich verschoben. Heute wird eine große Anzahl der Websites mit WordPress, TYPO3, Shopware oder einem anderen gängigen System gebaut. Das war damals ja auch alles noch anders. WordPress gab es zwar schon, war aber natürlich auch noch lange nicht so technisch ausgereift wir jetzt. Heute sehe ich aber immer noch viele technische Probleme in Bezug zu SEO. Es ist zwar anders als vor 15 Jahren, aber immer noch genau so wichtig. Beispielsweise bei großen Online Shops muss – meiner Meinung nach – ein technischer SEO fest im Team verankert sein. Da können so viele gravierende Fehler in Bezug zur Indexierung, zum Crawling, bei der internen Linkstruktur usw. passieren, die dann schnell zu hohen Verlusten im Umsatz führen können.
Wenn Du damals mit heute vergleichst: Hat sich die Indexierung bei Google und die Crawlfähigkeit der Suchmaschine verbessert?
Uwe Mosgallik: Das ist auf jeden Fall besser geworden. Damals gab es viele Probleme bei der Indexierbarkeit einer Website. Es wurde ja auch viel mit Framesets zum Teil gearbeitet, was dann für die Suchmaschine einfach nicht so gut war. Heute kann man schon sagen, dass Websites in der Regel gut crawlbar und indexierbar sind, wenn technisch keine Fehler gemacht wurden. Beispielsweise bei der Paginierung oder bei der robots.txt.
Wie wichtig ist heute die Technik einer Website für Suchmaschinen und für SEO?
Uwe Mosgallik: Das technische Thema wird im Vergleich zu den anderen Rankingfaktoren wir Content oder Backlinks immer ein bisschen runtergespielt. Nach wir vor ist das technische SEO aber sehr wichtig, wenn man bei Google eine hohe Sichtbarkeit erreichen will. Ich halte die Technik einer Website immer noch für entscheidend. Dabei habe ich nicht nur SEO, sondern natürlich den User im Blick. Wenn der User auf eine Seite kommt, die nicht richtig funktioniert, dann ist es für ihn unbefriedigend und er wird die Seite wieder verlassen. Solche Fehler bzw. so ein Nutzerverhalten wird die Suchmaschine dann auch mitbekommen und die Website entsprechend bewerten.
Hast Du dazu Beispiele?
Uwe Mosgallik: Jeder kennt es wahrscheinlich selbst. Ich gehe auf eine Website und die Bilder oder die Videos werden nicht richtig geladen. Oder die Seite ist so vollgestopft mit Werbung, dass der Text die ganze Zeit „herumspringt“, man kann den Content also gar nicht richtig konsumieren. Früher konnten die Suchmaschinen kein CSS oder JavaScript interpretieren. Das geht heute technisch besser. Dementsprechend können Usability-Themen auch bei der Bewertung einer Website oder Landingpage mehr Gewichtung finden.
Ist technisches SEO ein Rankingfaktor oder ein Hygienefaktor?
Uwe Mosgallik: Ich sehe technisches SEO eher als Hygienefaktor. Viele technische Themen müssen einfach passen, sonst kannst Du im SEO-Rennen gar nicht erst mitmachen. Wenn Du versuchst, die Website technisch sauber zu halten, so dass der User gut auf ihr navigieren kann – dann sind das am Ende aber auch positive Signale, die sich positiv aufs Ranking auswirken. Sagen wir es mal so: Ich denke, man kann viel verlieren, wenn man technisches SEO vernachlässigt oder wichtige Punkte nicht richtig umsetzt. Das größte Wachstumspotenzial liegt aber natürlich beim Content und bei Offpage-Faktoren.
Was sind Deiner Meinung nach die größten Fehler beim technischen SEO?
Uwe Mosgallik: Das ist ganz schwer zu sagen, weil es so viele verschiedene Fehlerquellen gibt. Ich führe extrem viele technische SEO-Audits unserer Kunden durch und sehe immer wieder andere Probleme. Wahrscheinlich ist die Vielfalt der potentiellen Fehler die größte Herausforderung für viele Unternehmen. Es gibt da keine Checkliste mit fünf Punkten. Dafür ist eine Website viel zu komplex.
Was ist das Ziel eines technischen SEO-Audits?
Uwe Mosgallik: Wenn ich einen technischen SEO-Audit durchführe, dann hat der meist 35 bis 45 Seiten. Ich prüfe dabei ganz viele unterschiedliche Themen. Beispiele sind: Sind die Canonical Tags richtig gesetzt? Werden Cookies gesetzt? Wie sehen die hreflang-Tags aus? Was steht in der robots.txt drin? Vor kurzem habe ich einen Audit einer Website durchgeführt, in dem die robots.txt falsch eingerichtet war. Die Einstellungen haben es die Suchmaschine verboten, die Seite zu indexieren. Das ist natürlich ein Worst Case für das Unternehmen, da die Seite bei Google überhaupt nicht erscheinen kann. So ein Fehler kann viel Geld kosten – vor allem, wenn er nicht gefunden wird.
Passiere so gravierende Fehler immer noch so oft?
Uwe Mosgallik: Leider ja. Deswegen prüfen wir unsere Kunden-Websites laufend, um genau solche Themen immer auf dem Schirm zu haben. Wenn man regelmäßige SEO Checks macht, dann kann eigentlich nicht viel passieren. Wir sehen so gravierende Fehler aber häufig bei neuen Kunden, die zu uns kommen. Da muss man dann technisch erst einmal aufräumen.
Kannst Du noch etwas dazu sagen, wie Du bei einem SEO Audit vorgehst?
Uwe Mosgallik: Ich habe da meine eigene Taktik. Wenn ich ein Audit für einen neuen Kunden durchführe, dann versuche ich mit einer komplett weißen Weste an die Seite ranzugehen. Ideal ist es für mich sogar, wenn ich gar nicht so viele Informationen zum Projekt habe – weil ich dann schon irgendwie beeinflusst werde. Ideal ist es, wenn ich mir die Seite komplett von Null aus anschaue und mich in die Technik reindenken kann. Ich führe natürlich am Anfang einen Crawl mit dem Screaming Frog durch, um schnell einen Überblick der SEO-Technik zu bekommen. Wo sind 404 Fehler? Wo sind falsche 301-Weiterleitungen? Welche Dateigröße haben die Bilder? Wie sieht die URL-Struktur aus usw.
Welche technischen Basics sollten immer umgesetzt sein?
Uwe Mosgallik: Das ist eine gute Frage. Darauf gibt es natürlich viele Antworten. Für SEO-Anfänger würde ich empfehlen, auf eine saubere Überschriftenstruktur zur achten. Jede Landingpage darf nur eine h1-Überschrift besitzen. Die Zwischenüberschriften werden dann als h2 ausgezeichnet. So kann man den wichtigen Content einer Landingpage gut strukturieren – für den Leser und die Suchmaschine. Ich würde bei größeren Websites auch darauf achten, dass die internen Links korrekt sind. Und das beispielsweise interne Links nicht auf Seiten führen, die es vielleicht gar nicht gibt. Da kann viel Linkpower verloren gehen. Zu viele 404-Fehler sollte eine Seite auch nicht haben. Das kann der Maschine nicht wirklich gefallen und wird früher oder später zu einer schlechteren SEO-Performance führen.
Wie schätzt Du die Web Vitals im Moment ein?
Uwe Mosgallik: Zur Ankündigung der Web Vitals war das ein großes Thema in der SEO-Welt. Im letzten Jahr sind da viele wieder etwas zurückgerudert. Auch Google hat die Wichtigkeit herabgestuft. Es hört sich nicht mehr ganz so „heiß“ an wie 2021. Ich denke dennoch, dass die Web Vitals nicht unwichtig sind. Denn auch hier geht es um die Nutzererfahrung. Wenn die Seite nur sehr langsam aufgerufen werden kann, dann wird das den User stören.
Was sind Deine 2 wichtigsten Tools, um technisches SEO machen zu können?
Uwe Mosgallik: Das sieht natürlich jeder SEO anders. Den Screaming Frog nutze ich sehr, sehr viel. Das Tool läuft bei mir fast den ganzen Tag – und kommt bei den verschiedensten Sachen zum Einsatz. Und mein zweitwichtigstes Werkzeug ist mein Kopf, also die vielen Erfahrungen die ich in den letzten 10 bis 15 Jahren im SEO gesammelt habe. Aber es gibt natürlich viele gute SEO-Tools wie Sistrix, XOVI, Ahref usw.
Welche Themen werden uns in der nächsten Zeit im SEO beschäftigen?
Uwe Mosgallik: Natürlich wird uns die Künstliche Intelligenz weiter beschäftigen. Das wird zum einen zur Verfeinerung der Algorithmen führen. Google wird dann wahrscheinlich noch mehr in der Lage sein, Webseiten zu bewerten und die Rankings daraus ableiten. Mit dem Helpful Content Update geht es vielleicht schon in diese Richtung. Auch wird KI natürlich in vielen anderen SEO-bezogenen Bereichen verstärkt Einzug finden. Viele SEO-Tools sind schon auf den Zug aufgesprungen und versprechen Analysen mit KI. Da wird auch noch viel passieren. Im SEO-Job wird KI auch immer mehr zum Alltag werden. Ich denke, wir können uns jetzt vielleicht noch gar nicht richtig vorstellen, was alles kommen wird. Es bleibt auf jeden Fall spannend im SEO.