Hier finden Sie Antworten auf die wichtigsten Fragen rund um den AI Trust Audit
Das AI Trust Audit ist ein kostenloses Tool, das analysiert, wie gut Ihre Website für AI-Systeme wie ChatGPT, Perplexity oder Google Gemini optimiert ist. Wir prüfen über 50 On-Site- und Off-Site-Faktoren in 6 Kategorien und geben Ihnen einen detaillierten Score mit konkreten Handlungsempfehlungen.
Das Audit ist ideal für Website-Betreiber, SEO-Experten, Marketing-Manager und Unternehmen, die ihre Sichtbarkeit in AI-Systemen verbessern möchten.
Nein, das AI Trust Audit ist komplett kostenlos nutzbar. Sie können beliebig viele Websites analysieren und erhalten sofort Zugriff auf die vollständigen Ergebnisse.
SEO optimiert für klassische Suchmaschinen wie Google. GEO (Generative Engine Optimization) optimiert Inhalte so, dass KI-Systeme wie ChatGPT Ihre Website als vertrauenswürdige Quelle erkennen und zitieren. Das AI Trust Audit deckt beide Bereiche ab.
Die wichtigsten KI-Crawler sind: GPTBot (OpenAI/ChatGPT), PerplexityBot (Perplexity AI), ClaudeBot (Anthropic), Bytespider (ByteDance/TikTok) und Google-Extended (Google Gemini). Über die robots.txt können Sie steuern, welche Crawler Zugriff erhalten.
Der Score basiert auf über 50 automatisierten Checks in 6 Kategorien: Crawling & Indexing, Autorität & Struktur, Security & Technik, Compliance & Recht, Reputation & Social Proof sowie Content-Qualität. Jeder Check hat eine spezifische Gewichtung (1-5 Punkte).
Über 80% ist sehr gut, 60-80% ist solide mit Optimierungspotenzial, 40-60% zeigt grundlegende Implementierung mit Lücken, unter 40% bedeutet dringender Handlungsbedarf.
(1) Crawling & Indexing – Technische Erreichbarkeit für KI-Crawler. (2) Autorität & Struktur – Wahrnehmung als vertrauenswürdige Quelle. (3) Security & Technik – Aktuelle Sicherheitsstandards. (4) Compliance & Recht – Rechtliche Pflichtangaben. (5) Reputation & Social Proof – Externe Wahrnehmung. (6) Content & Semantik – Maschinenlesbarkeit und semantische Struktur.
Das Audit analysiert Ihre HTML-Seite, robots.txt und Sitemap, identifiziert automatisch repräsentative Unterseiten und prüft HTTPS-Header, Security-Einstellungen, strukturierte Daten, Meta-Tags und HTML-Struktur. Externe APIs liefern Reputation-Checks.
Nein, das Audit ist read-only. Wir senden einen einzelnen HTTP-Request und lesen öffentlich zugängliche Daten. Die Belastung entspricht einem einzelnen Seitenaufruf.
Strukturierte Daten (JSON-LD/Schema.org) sind maschinenlesbare Auszeichnungen, die Inhalten eine eindeutige Bedeutung geben. KI-Systeme nutzen diese, um Inhalte schneller zu verstehen und in Antworten zu zitieren.
Die robots.txt steuert, welche Bots crawlen dürfen. Für KI-Sichtbarkeit sollten GPTBot, PerplexityBot und Google-Extended nicht blockiert werden.
(1) HTTPS aktivieren, (2) JSON-LD für Organization/Product/FAQ einbinden, (3) robots.txt für KI-Crawler öffnen, (4) Meta-Tags optimieren, (5) XML-Sitemap erstellen.
Nach jeder größeren Website-Änderung, mindestens alle 4-6 Wochen. Die KI-Landschaft entwickelt sich schnell weiter.