Gib einfach deine URL und deine E-Mail ein und bekomme ein Report, der zeigt
Analysiert Text auf Fragezeichen und Fragewörter (wer/was/wie/…). Berechnet Fragendichte relativ zur Wortzahl. Erkennt Fragen in H1–H3. Prüft JSON-LD auf FAQ/Question/HowTo-Typen. Bewertet Vielfalt der Frage-Starter und kennzeichnet zu kurze Fragen. Liefert Beispielausschnitte.
Findet script type="application/ld+json", parst JSON, zählt gültige Blöcke. Extrahiert @type/@context und @graph-Nutzung. Bewertet Schlüsselschemata (Organization, Website, WebPage, Article, Product, FAQPage, HowTo, BreadcrumbList, LocalBusiness). Meldet ungültiges JSON oder fehlenden schema.org-Kontext.
Zählt UL/OL/DL/LI und die Quote nicht-leerer LI. Ermittelt maximale Verschachtelungstiefe und markiert übermäßige Tiefe. Meldet leere Einträge. Vergibt Bonus für UL/OL-Vielfalt und korrekt genutzte DL (DT/DD). Liefert Hinweise zu Umfang und Lesbarkeit.
Ruft die Seite mit Browser- und Bot-User-Agent ab. Erfasst Blockcodes (401/403/429/503) und Cloudflare/Challenge-Indikatoren. Liest X-Robots-Tag (noindex, nofollow, noai, noimageai, none). Meldet Inkonsistenzen, wenn Menschen Zugriff haben, Bots jedoch blockiert werden.
Liest robots.txt auf Sitemap-Hinweise, prüft Fallback-Pfade, unterscheidet Index und URL-Sitemaps. Summiert Gesamt-URLs, wertet lastmod auf Frische (Tage) aus. Erkennt GZIP, Host-/Schema-Inkonsistenzen und HTTP-Fehler einzelner Sitemaps. Liefert Optimierungshinweise.
Testet IMG/OG-Bilder via HEAD/GET auf Content-Type und -Length. Zählt defekte und übergroße Dateien (Schwellwert). Erfasst Einsatz moderner Formate (WebP/AVIF/SVG), srcset/sizes und lazy-loading. Berechnet ALT-Text-Abdeckung und liefert Beispiel-URLs für ok/oversize/broken.
Ermittelt Antwortzeit/TTFB und Downloadgröße der Hauptseite. Prüft GZip/Brotli-Kompression sowie Cache-Header (Cache-Control/ETag/Expires). Erkennt unnötige Redirect-Ketten. Gibt Hinweise zu Server-Antwortzeiten, Ressourcengrößen und HTTP-Caching.
Analysiert itemscope/itemtype (Microdata) und vocab/prefix/typeof (RDFa). Zählt Instanzen und Tiefe, erkennt Mischformen mit JSON-LD. Prüft Anbindung an schema.org und grundlegende Konsistenz. Meldet fehlende Kontexte bzw. uneinheitliche Typisierung.
Erkennt typische Markup-Fehler (ungültige Elemente/Attribute, nicht geschlossene Tags, falsche Verschachtelung). Bewertet Fehler-/Warnungsniveau und potenzielle Auswirkungen auf Semantik, Parser und Barrierefreiheit. Liefert kompakte Behebungshinweise.
Ruft /llm.txt ab und prüft HTTP-Status, Größe, Textinhalte. Validiert Richtlinien (z. B. Crawl/Train Allow/Deny) und optionale Agent-Spezifika. Ordnet die Datei gegenüber robots.txt und X-Robots-Tag ein. Meldet Konflikte oder fehlende Direktiven.
Erkennt HTML5-Doctype und Position am Dokumentanfang. Prüft Charset-Angaben (Meta/HTTP-Header) und Quirks-Mode-Risiken. Meldet veraltete/inkonsistente Deklarationen. Hebt Auswirkungen auf Rendering, Features und SEO-Signale hervor.
Prüft meta name="viewport" und typische Parameter. Bewertet responsive Images (srcset/sizes) sowie Basis-Heuristiken zu Text/UI (Touch-Targets, Schriftgrößen, horizontales Scrollen). Erfasst CLS-Risiken durch fehlende Dimensionen. Liefert Basisempfehlungen.
Extrahiert interne/externe HREF-Ziele und relevante Ressourcen. Validiert HTTP-Status (2xx/3xx/4xx/5xx) und erkennt Redirect-Loops. Meldet Ankerziele ohne Fragment-Ziel. Liefert Beispiel-Links nach Kategorien (kaputt/umgeleitet/ok) zur schnellen Behebung.
Lädt /robots.txt und prüft HTTP-Status. Interpretiert Allow/Disallow inkl. Wildcards/Anchors. Erfasst agent-spezifische Regeln. Meldet blockierte Kernpfade und fehlende Sitemap-Einträge. Bewertet Größe und Caching-Header.
Zählt Überschriftenebenen und prüft H1-Regel (idealerweise genau eine). Validiert Reihenfolge (H1 vor H2) und vermeidet Level-Sprünge. Ermittelt leere/überlange Titel und Duplikate. Bewertet H1-Länge (≈15–70 Zeichen) und zeigt eine Vorschau der ersten H1/H2.
Prüft HTTP-Status und Anzahl Weiterleitungen bis zur Ziel-URL. Erkennt genau einen gültigen Canonical, dessen Ziel erreichbar ist und nicht weiterleitet. Vergleicht finale Abruf-URL mit der Canonical-URL (www/Slash/HTTPS-Normalisierung). Meldet Cross-Domain-Canonicals und Mehrfach-Canonicals. Kennzeichnet Canonicals mit 3xx/4xx/5xx und gibt Hinweise zur Kettenreduktion.
Offene KI‑Assistenten wie ChatGPT, Gemini oder Perplexity beantworten jeden Tag Millionen deutschsprachiger Fragen. Wer dort fehlt, verliert Reichweite und Vertrauen. Unser Check funktioniert wie Google Pagespeed: messen, verstehen, optimieren. Keine Lizenz, kein Upsell.
Unser Tool zeigt dir, wo du stehst und welche Lücken du schliessen musst.
Marken, die als vertrauenswürdige Quelle genannt werden wollen
Shops und Portale mit Informationswert
Agenturen, die schnelle Audits für
Kunden brauchen
Strukturierte Daten Check
Bot‑Access‑Prüfung
Content‑Lücken Analyse
Quick‑Win Liste für Entwickler und Redaktion
Mehr Sichtbarkeit in KI‑Antworten
Schnellere Indexierung dank Feeds und Sitemap‑Ping
Klare Handlungsliste statt Blabla
Trage deine E‑Mail ein, um monatliche Sichtbarkeits‑Updates zu bekommen und keine Quick‑Wins zu verpassen.
Ja. Du kannst beliebig viele Domains prüfen.
Ja, du kannst den Report exportieren. Der Export steht dir nach der Analyse direkt als PDF oder CSV zum Download zur Verfügung.
Nein, der Scan hat keinen Einfluss auf dein SEO-Ranking. Er analysiert nur öffentlich zugängliche Inhalte deiner Website und führt keine Änderungen daran durch.