W
Warum Lighthouse Scores

Warum Lighthouse Scores lügen – und was Google wirklich bewertet

31 Jan 2025

Welche Performance-Metriken tatsächlich zählen – und warum dein 98-Score nichts bedeutet

Lighthouse ist eines der am häufigsten missverstandenen Tools im modernen Web.

Teams feiern:

  • „Wir haben 95+ erreicht"
  • „Alles ist grün"
  • „Performance ist erledigt"

Kurz danach:

  • Rankings stagnieren
  • Conversions sinken
  • echte Nutzer beschweren sich

Das ist kein Zufall.

Lighthouse misst nicht die Realität. Google schon.


Das Kernproblem: Lighthouse misst eine kontrollierte Fantasie

Lighthouse läuft unter Bedingungen, die es in der Realität nicht gibt:

  • saubere Testumgebung
  • simuliertes Gerät
  • festes Netzwerkprofil
  • keine Extensions
  • kein Nutzerchaos

Kurz gesagt:

Lighthouse misst, wie schnell deine Seite sein könnte – nicht, wie sie tatsächlich erlebt wird.

Google bewertet ausschließlich reale Nutzererfahrung.

Diese beiden Dinge sind fundamental verschieden.


Warum hohe Lighthouse Scores oft zu schlechten SEO-Entscheidungen führen

Die unbequeme Wahrheit:

Viele Teams optimieren für Lighthouse – nicht für Nutzer.

Das führt zu:

  • verzögertem Content-Rendering
  • aggressivem Lazy Loading
  • Hydration-Hacks
  • Skeleton-UIs, die langsame Daten kaschieren
  • Deferred Rendering, das SEO schadet

Ergebnis:

  • grüne Zahlen
  • schlechtere Rankings
  • schlechtere Conversion

Die drei Performance-Realitäten (und warum nur eine zählt)

1. Lab Metrics (Lighthouse)

Eigenschaften:

  • synthetisch
  • reproduzierbar
  • entwicklerfreundlich

Gut für:

  • lokales Debugging
  • Vergleich von Änderungen
  • Regressionstests

Unbrauchbar für:

  • Rankings
  • reale UX
  • Business-Entscheidungen

2. Field Metrics (CrUX)

Eigenschaften:

  • echte Nutzer
  • echte Geräte
  • echte Netzwerke

Das ist die Datenbasis von Google.

Wenn deine Field Data schlecht ist, kann Lighthouse nichts retten.


3. Business Metrics (die oft ignoriert werden)

Beispiele:

  • Bounce Rate
  • Conversion Rate
  • Scrolltiefe
  • Interaktionsverzögerung

Diese korrelieren deutlich stärker mit Rankings als jeder Lab-Score.


Die häufigsten Lighthouse-„Erfolge", die in der Realität verlieren

1. Künstlich verzögerter LCP

Typisches Vorgehen:

  • Hauptinhalt verstecken
  • Rendering verzögern
  • Platzhalter anzeigen

Lighthouse ist zufrieden. Nutzer nicht.

Google erkennt das über Field Data.


2. Übertriebenes JavaScript-Deferring

JS-Deferral verbessert Lighthouse.

Aber es kann:

  • Interaktionen verzögern
  • Analytics-Timing zerstören
  • INP massiv verschlechtern

Resultat:

  • toller Lab-Score
  • schlechte Engagement-Signale

3. CLS-Fixes, die UX zerstören

Manche CLS-„Optimierungen":

  • reservieren riesige Leerflächen
  • frieren Layouts künstlich ein

Das senkt Nutzbarkeit.

CLS ist ein Signal, kein Ziel.


Was 2025 wirklich zählt (Google-Realität)

1. Konsistenz der Field-CWV

Google betrachtet:

  • das 75. Perzentil
  • über längere Zeiträume
  • über verschiedene Gerätetypen

Ein schneller Test bedeutet nichts.


2. Backend-Latenz (TTFB)

Der stille Killer.

Lighthouse kaschiert ihn oft. Nutzer nicht.

Langsame APIs → langsamer LCP → Ranking-Verlust.


3. Interaktion unter Last (INP)

INP bestraft:

  • schwere Client-Logik
  • aufgeblähte Bundles
  • zustandslastige UIs

Das taucht selten im Lighthouse auf – aber stark in Field Data.


4. Vorhersehbarkeit

Google bevorzugt Websites, die:

  • konsistent reagieren
  • unter Last nicht einbrechen
  • Nutzer nicht überraschen

Performance-Volatilität ist ein Ranking-Risiko.


Lighthouse ist ein Tool – kein KPI

Richtig eingesetzt:

  • lokales Debugging
  • Vergleich von Builds
  • Regressionserkennung

Falsch eingesetzt:

  • Performance-Nachweis
  • SEO-Beweis
  • Kundenreporting

Grünes Lighthouse ≠ schnelle Website. Schnelle Website ≠ hohes Lighthouse.


Warum das bei modernen Frameworks noch kritischer ist

Frameworks wie Next.js ermöglichen:

  • Lab-Metrics zu „spielen"
  • Latenz zu verstecken
  • Probleme zu verschieben

Sie ermöglichen aber auch:

  • echte Performance
  • saubere Datenflüsse
  • stabile CWV

Der Unterschied ist Architektur.


Was erfolgreiche Teams anders machen

Teams, die wirklich in Google gewinnen:

  1. überwachen CrUX statt Lighthouse
  2. messen Real-User-CWV kontinuierlich
  3. setzen Performance-Budgets
  4. optimieren Datenflüsse, nicht Animationen
  5. sehen Performance als Backend- und Frontend-Thema

Sie feiern keine Zahlen. Sie kontrollieren Systeme.


Der H-Studio-Ansatz: Performance ohne Illusionen

Bei H-Studio reporten wir Lighthouse-Scores nicht als Erfolg.

Wir analysieren:

  • reale Nutzer-CWV
  • Backend-Latenz
  • Regressionsrisiken
  • SEO-Auswirkungen
  • Business-Effekte

Wenn Lighthouse besser wird – schön. Wenn nicht – egal.

Google interessiert das auch nicht.


Fazit

Lighthouse lügt nicht absichtlich.

Es beantwortet nur die falsche Frage.

Die einzige Frage, die zählt, ist:

Wie schnell ist deine Website für reale Nutzer – dauerhaft?

Alles andere ist Kosmetik.


Performance-Audit basierend auf echten Daten

Wenn deine Lighthouse-Scores grün sind, aber Rankings fallen, optimierst du für die falschen Metriken. Google nutzt echte Nutzererfahrung – nicht Lab-Scores.

Wir bieten Core Web Vitals Audits, die messen, was Google tatsächlich sieht: Field Data, Backend-Latenz und Real-User-CWV. Für Technical SEO fixen wir die Root Causes, die Rankings beeinflussen – nicht nur Lab-Metriken. Für Backend-Infrastruktur adressieren wir TTFB und API-Performance, die Lighthouse oft übersieht.

Start Your Audit

Abonniere unseren Newsletter!

Gib deine E-Mail ein, um unseren neuesten Newsletter zu erhalten.

Keine Sorge, wir spammen nicht

Weiterlesen

30 Jan 2025

Core Web Vitals 2025: Warum Performance über Google-Rankings entscheidet

Und warum 'gut genug' bei Performance nicht mehr reicht. 2025 sind Core Web Vitals kein Bonus mehr—sie sind ein Filter. Schnelle, stabile Websites gewinnen. Langsame, instabile Seiten verschwinden leise.

03 Feb 2025

Warum WordPress-SEO bei Wachstum bricht

Und warum es perfekt funktioniert—bis es das plötzlich nicht mehr tut. Die meisten SEO-Probleme mit WordPress entstehen nicht beim Launch. Sie entstehen beim Wachstum—wenn Traffic, Content, Integrationen und Erwartungen steigen. Erfahre, wann Migration sinnvoller ist.

01 Feb 2025

SSR, Edge & Streaming: Was Google wirklich sieht (SEO 2025)

Warum modernes Rendering SEO still schädigen kann. Was Google wirklich sieht, wann SSR zuverlässig ist und wo Edge/Streaming Indexing fragmentieren. Google rankt keine Versprechen—es rankt, was es zuverlässig sehen kann.

02 Feb 2025

Die SEO-Kosten von JavaScript-Frameworks: Mythos vs. Realität

Was Rankings wirklich schadet—und was nicht. JavaScript-Frameworks töten SEO nicht, aber undiszipliniert eingesetzt schon. Erfahre, wo die echten SEO-Kosten liegen: Komplexität, Rendering-Ungewissheit und Performance-Volatilität.

24 Feb 2025

SEO hat sich verändert. Viele Ansätze nicht.

Warum moderne Search Visibility kein Marketing-only Thema mehr ist. In den letzten Jahren kommen viele Unternehmen zur gleichen Beobachtung: 'SEO funktioniert nicht mehr wie früher.' In der Praxis bedeutet es meist: SEO hat sich fundamental verändert—aber ein relevanter Teil des Marktes hat seine Denkmodelle nicht mitentwickelt.

21 Jan 2025

Next.js ist nicht das Problem — deine Architektur ist es

Alle paar Monate beschuldigen Teams Next.js für Performance-, SEO- oder Skalierungsprobleme. Fast jedes Mal ist die Schlussfolgerung falsch. Next.js ist selten das Problem—deine Architektur ist es. Erfahre, warum Framework-Rewrites scheitern und was wirklich funktioniert.

Warum Lighthouse Scores lügen – und was Google wirklich bewertet | H-Studio