Recap - Technical SEO Meetup Hannover

Recap - Technical SEO Meetup Hannover

Von
Lucas Haiduck
26.07.2019

Jeder der schon einmal mit Javascript und SEO zu tun gehabt hat, kennt das Gerücht, dass die beiden eine schwierige Beziehung haben. Was genau kann der Googlebot auslesen? Wird mein Javascript gerendert? Wie muss der Code aufgebaut sein, damit der Crawler an die Links rankommt? Dieses Thema behandelte der Google Dev Martin Splitt und unsere beiden SEOs Marcel und Lucas statteten SEO united einen Besuch bei dem Technical Meetup in Hannover ab und berichten hier von ihrem ereignisreichen und lehrreichen Tag.

Twittercard

Wir schreiben Donnerstag den 25. Juli und es ist ein historischer Tag – und das gleich aus zwei Gründen: Zum einen erreicht durch eine unbändige Hitzewelle Deutschland an diesem Tag ein neues Temperatur-Rekordhoch mit 42,6 ° und zum andern trifft an diesem Tag seines Zeichens Google Developer & Web Enthusiast Martin Splitt im schönen Hannover auf die SEO Community, um Licht in das Dickicht des Javascript-SEO Dschungels zu bringen.

Treffpunkt des Ganzen waren die Räumlichkeiten von SEO united, organisiert von Uwe Tippmann. Passend zu den tropischen Temperaturen startet der SEO-Tag mit einem angenehmen, selbstgebrauten Hopfen-Kaltgetränken-Empfang von Uwe. 

Lucas und Marcel Seos machen gutes Bier

Eine herzliche Begrüßung auf dem Technical SEO Meetup

Insgesamt vier Workshops und Vorträge hielt das Programm für die anwesenden SEOs bereit. Natürlich allesamt zum Thema SEO, Javascript und Web Development. Marcel und ich haben uns zuerst für den "Technical SEO 101 for JS Developers"-Workshop mit Martin Splitt entschieden. 

Workshop 1: Technical SEO mit Martin Split

Nach der kurzen Abkühlung startete sogleich der erste Workshop "Technical SEO 101 for JS Developers" mit Martin “Splitti” Splitt.  Der gebürtige Hannoveraner gab den wissbegierigen SEOs einen Einblick in die Prozesse des Crawlings und der Indexierung durch den Googlebot.

Im Fokus stand dabei der gesamte Bereich vor der Indexierung: das Crawling. Gerade, wenn es daran geht, Websites zu erstellen, ist dieses von enormer Bedeutung. Wir haben einige interessante Erkenntnisse zusammengefasst:

Crawling und Indexierung durch den Googlebot

Im Fokus steht das Crawling: Im Schaubild alles im linken Bereich

  • Probleme bei der Indexierung lassen sich meist auf das Crawling zurückführen
  • Es gibt eine “Crawl Queue”: Hier warten URLs darauf, gecrawlt zu werden - das HTML dieser URLs wird gecrawlt und Links, die im Quellcode gefunden werden, werden direkt wieder in die Queue gepackt
  • Crawlbudget hängt weniger von der Größe einer Website ab, sondern vielmehr von der Leistung des Servers
  • Crawlbudget wird nicht nach URLs gemessen, sondern nach Requests: Optimierung nicht vergessen
  • Auch für das Rendering gibt es einen Queue: Tendenziell werden alle Seiten einer Domain gerendert.

Im Anschluss ging es weiter mit Aspekten des Javascript Crawlings durch den Googlebot. Der ein oder andere hat sich sicher auch schon gefragt, welche JavaScript-Links der Googlebot eigentlich auslesen kann, oder? Google Developer Martin Splitt kennt die Antwort:

Welche JavaScript Links kann der Googlebot crawlen

Seit dem Launch von Evergreen Googlebot kann der Googlebot wesentlich mehr JavaScript auslesen, als so mancher SEO da draußen noch annimmt. Wer sich für das Thema weiter interessiert sollte unbedingt die Youtube-Video Reihe zum Thema Javascript SEO von Martin auschecken. Für alle Freunde des geschriebenen Wortes gibt es aber auch hier JS SEO Guide zu lesen.

Viele neue Erkenntnisse also, auf die wir uns freuen, sie in einer unserer "Wissensaustausch-Runden" unserem Team ausführlich weiterzugeben! 

Ein Teil unserer Unternehmensphilosophie ist es, uns stetig weiterzubilden. Jeder Mitarbeiter hat ein Fortbildungsbudget, dass zu mindestens 50% aufgebraucht werden muss. Und wir ermöglichen jedem im Team, von einem Workshop wie diesem zu profitieren. 

Ausklingen ließ man das Ganze mit einer Bratwurst und weiteren Brauspezialitäten während nach bester Manier ein wenig genetzwerkt wurde. 

Workshop 2: Site Clinic mit Martin Split & André Goldmann

Hinter dem bedeutungsschwangeren Titel “Technical SEO Site Clinic PageSpeed, JS & Ressource-Optimization” erwartete uns eine SEO Site Clinic mit Martin Splitt & André Goldmann von Technicalseo.de.

Bereits im Vorhinein konnten Teilnehmer ihre Webseiten zur Analyse einreichen und in einer Fragerunde konkrete Fragen stellen. Es wurden individualisierte Tipps gegeben, altbekannte Probleme und Gemeinplätze diskutiert und nackte Tatsachen besprochen. Was Letzteres bedeutet? Doch dazu möchten wir nicht mehr verraten – man muss dabei gewesen sein. 

Die coolsten Erkenntnissen des Tages, getarnt als SEO Fun Facts

  • Der Googlebot ist jetzt Evergreen, also mit Chrome immer gleichauf. Tools wie der Mobile Friendly Test sind aber noch nicht aktualisiert und laufen noch auf Chrome 41. #tobecontinued
  • Caffeine ist tot – und wir reden nicht von Kaffee.
  • Der Googlebot ignoriert Sprungmarken (#).
  • Google empfiehlt euch Server Side JS Rendering – hauptsächlich aus Performancegründen.
  • Schwiizerdütsch ist eine wunderschöne und verwirrende Sprache.
  • Faustregel für JS Link-Crawling: Es muss ein href=/url im DOM vorhanden sein.
  • Der Googlebot wird versuchen eure Pages mit einer durchschnittlichen Crawlgeschwindigkeit auszulesen. Sagen wir z.B. 300 Request per second. Diese Requests werden hoch- oder runtergeschraubt, je nachdem wie euer Server mitmacht. Das heißt konkret: Eure TTFB (Time to first Byte) hat Auswirkung auf euer Crawlbudget!
  • Falls wir es noch nicht erwähnt hatten: Der Mobile Friendly Test ist das coolste Tool und sollte mindestens einmal täglich verwendet werden.

Wir bedanken uns für den tollen Tag mit vielen, neuen Erkenntnissen! Bis nächstes Mal.

Euer TrafficDesign SEO-Team