Vind antwoorden op de meest gestelde vragen over AI Trust Audit
De AI Trust Audit is een gratis tool die analyseert hoe goed uw website geoptimaliseerd is voor AI-systemen zoals ChatGPT, Perplexity of Google Gemini. We controleren meer dan 50 on-site en off-site factoren in 6 categorieën en bieden een gedetailleerde score met concrete aanbevelingen.
De audit is ideaal voor website-eigenaren, SEO-experts, marketingmanagers en bureaus die willen zorgen dat hun content correct herkend wordt door AI-systemen.
Ja, de AI Trust Audit is volledig gratis. U kunt zoveel URL's controleren als u wilt en gedetailleerde resultaten ontvangen.
SEO optimaliseert voor traditionele zoekmachines zoals Google. GEO (Generative Engine Optimization) optimaliseert content zodat AI-systemen uw website als betrouwbare bron herkennen en citeren. De AI Trust Audit dekt beide gebieden.
De belangrijkste AI-crawlers zijn: GPTBot (OpenAI/ChatGPT), PerplexityBot (Perplexity AI), ClaudeBot (Anthropic), Bytespider (ByteDance/TikTok) en Google-Extended (Google Gemini). Via robots.txt kunt u bepalen welke crawlers toegang hebben.
De score is gebaseerd op meer dan 50 geautomatiseerde checks in 6 categorieën: Crawling & Indexering, Autoriteit & Structuur, Beveiliging & Techniek, Compliance & Recht, Reputatie & Sociaal Bewijs en Contentkwaliteit. Elke check heeft een specifiek gewicht (1-5 punten).
Boven 80% is zeer goed, 60-80% is solide met optimalisatiepotentieel, 40-60% toont basisimplementatie met hiaten, onder 40% betekent dat dringend actie nodig is.
(1) Crawling & Indexering – Technische toegankelijkheid voor AI-crawlers. (2) Autoriteit & Structuur – Perceptie als betrouwbare bron. (3) Beveiliging & Techniek – Actuele beveiligingsstandaarden. (4) Compliance & Recht – Verplichte juridische informatie. (5) Reputatie & Sociaal Bewijs – Externe perceptie. (6) Content & Semantiek – Machineleesbaarheid en semantische structuur.
De audit analyseert uw HTML-pagina, robots.txt en sitemap, identificeert automatisch representatieve subpagina's en controleert HTTPS-headers, beveiligingsinstellingen, gestructureerde data, meta-tags en HTML-structuur. Externe API's leveren reputatiechecks.
Nee, de audit is alleen-lezen. We sturen een enkel HTTP-verzoek en lezen publiek toegankelijke gegevens. De belasting is gelijk aan een enkel paginabezoek.
Gestructureerde gegevens (JSON-LD/Schema.org) zijn machineleesbare annotaties die content een duidelijke betekenis geven. AI-systemen gebruiken deze om content sneller te begrijpen en te citeren in hun antwoorden.
Het robots.txt-bestand bepaalt welke bots mogen crawlen. Voor AI-zichtbaarheid moeten GPTBot, PerplexityBot en Google-Extended niet geblokkeerd worden.
(1) HTTPS activeren, (2) JSON-LD toevoegen voor Organization/Product/FAQ, (3) robots.txt openen voor AI-crawlers, (4) Meta-tags optimaliseren, (5) XML-sitemap maken.
Na elke grote websitewijziging, minstens elke 4-6 weken. Het AI-landschap evolueert snel.