DEENFRESPLNLITPT

Häufig gestellte Fragen

Hier finden Sie Antworten auf die wichtigsten Fragen rund um den AI Trust Audit


Allgemeine Fragen

Was ist das AI Trust Audit?

Das AI Trust Audit ist ein kostenloses Tool, das analysiert, wie gut Ihre Website für AI-Systeme wie ChatGPT, Perplexity oder Google Gemini optimiert ist. Wir prüfen über 50 On-Site- und Off-Site-Faktoren in 6 Kategorien und geben Ihnen einen detaillierten Score mit konkreten Handlungsempfehlungen.

Für wen ist das AI Trust Audit geeignet?

Das Audit ist ideal für Website-Betreiber, SEO-Experten, Marketing-Manager und Unternehmen, die ihre Sichtbarkeit in AI-Systemen verbessern möchten.

Kostet das AI Trust Audit etwas?

Nein, das AI Trust Audit ist komplett kostenlos nutzbar. Sie können beliebig viele Websites analysieren und erhalten sofort Zugriff auf die vollständigen Ergebnisse.

Was ist der Unterschied zwischen SEO und GEO?

SEO optimiert für klassische Suchmaschinen wie Google. GEO (Generative Engine Optimization) optimiert Inhalte so, dass KI-Systeme wie ChatGPT Ihre Website als vertrauenswürdige Quelle erkennen und zitieren. Das AI Trust Audit deckt beide Bereiche ab.

Welche KI-Crawler gibt es?

Die wichtigsten KI-Crawler sind: GPTBot (OpenAI/ChatGPT), PerplexityBot (Perplexity AI), ClaudeBot (Anthropic), Bytespider (ByteDance/TikTok) und Google-Extended (Google Gemini). Über die robots.txt können Sie steuern, welche Crawler Zugriff erhalten.

Score & Ergebnisse

Wie wird der AI Trust Score berechnet?

Der Score basiert auf über 50 automatisierten Checks in 6 Kategorien: Crawling & Indexing, Autorität & Struktur, Security & Technik, Compliance & Recht, Reputation & Social Proof sowie Content-Qualität. Jeder Check hat eine spezifische Gewichtung (1-5 Punkte).

Was ist ein guter Score?

Über 80% ist sehr gut, 60-80% ist solide mit Optimierungspotenzial, 40-60% zeigt grundlegende Implementierung mit Lücken, unter 40% bedeutet dringender Handlungsbedarf.

Was bedeuten die sechs Audit-Kategorien?

(1) Crawling & Indexing – Technische Erreichbarkeit für KI-Crawler. (2) Autorität & Struktur – Wahrnehmung als vertrauenswürdige Quelle. (3) Security & Technik – Aktuelle Sicherheitsstandards. (4) Compliance & Recht – Rechtliche Pflichtangaben. (5) Reputation & Social Proof – Externe Wahrnehmung. (6) Content & Semantik – Maschinenlesbarkeit und semantische Struktur.

Technische Fragen

Wie funktioniert die technische Analyse?

Das Audit analysiert Ihre HTML-Seite, robots.txt und Sitemap, identifiziert automatisch repräsentative Unterseiten und prüft HTTPS-Header, Security-Einstellungen, strukturierte Daten, Meta-Tags und HTML-Struktur. Externe APIs liefern Reputation-Checks.

Kann das Audit meine Website beschädigen?

Nein, das Audit ist read-only. Wir senden einen einzelnen HTTP-Request und lesen öffentlich zugängliche Daten. Die Belastung entspricht einem einzelnen Seitenaufruf.

Was sind strukturierte Daten und warum sind sie wichtig?

Strukturierte Daten (JSON-LD/Schema.org) sind maschinenlesbare Auszeichnungen, die Inhalten eine eindeutige Bedeutung geben. KI-Systeme nutzen diese, um Inhalte schneller zu verstehen und in Antworten zu zitieren.

Wie beeinflusst die robots.txt die KI-Sichtbarkeit?

Die robots.txt steuert, welche Bots crawlen dürfen. Für KI-Sichtbarkeit sollten GPTBot, PerplexityBot und Google-Extended nicht blockiert werden.

Verbesserungen & Optimierung

Was sind die wichtigsten Quick Wins?

(1) HTTPS aktivieren, (2) JSON-LD für Organization/Product/FAQ einbinden, (3) robots.txt für KI-Crawler öffnen, (4) Meta-Tags optimieren, (5) XML-Sitemap erstellen.

Wie oft sollte ich das Audit wiederholen?

Nach jeder größeren Website-Änderung, mindestens alle 4-6 Wochen. Die KI-Landschaft entwickelt sich schnell weiter.