DEENFRESPLNLITPT

Veelgestelde vragen

Vind antwoorden op de meest gestelde vragen over AI Trust Audit


Algemene vragen

Wat is de AI Trust Audit?

De AI Trust Audit is een gratis tool die analyseert hoe goed uw website geoptimaliseerd is voor AI-systemen zoals ChatGPT, Perplexity of Google Gemini. We controleren meer dan 50 on-site en off-site factoren in 6 categorieën en bieden een gedetailleerde score met concrete aanbevelingen.

Voor wie is de AI Trust Audit geschikt?

De audit is ideaal voor website-eigenaren, SEO-experts, marketingmanagers en bureaus die willen zorgen dat hun content correct herkend wordt door AI-systemen.

Is de audit echt gratis?

Ja, de AI Trust Audit is volledig gratis. U kunt zoveel URL's controleren als u wilt en gedetailleerde resultaten ontvangen.

Wat is het verschil tussen SEO en GEO?

SEO optimaliseert voor traditionele zoekmachines zoals Google. GEO (Generative Engine Optimization) optimaliseert content zodat AI-systemen uw website als betrouwbare bron herkennen en citeren. De AI Trust Audit dekt beide gebieden.

Welke AI-crawlers bestaan er?

De belangrijkste AI-crawlers zijn: GPTBot (OpenAI/ChatGPT), PerplexityBot (Perplexity AI), ClaudeBot (Anthropic), Bytespider (ByteDance/TikTok) en Google-Extended (Google Gemini). Via robots.txt kunt u bepalen welke crawlers toegang hebben.

Score & Resultaten

Hoe wordt de score berekend?

De score is gebaseerd op meer dan 50 geautomatiseerde checks in 6 categorieën: Crawling & Indexering, Autoriteit & Structuur, Beveiliging & Techniek, Compliance & Recht, Reputatie & Sociaal Bewijs en Contentkwaliteit. Elke check heeft een specifiek gewicht (1-5 punten).

Wat is een goede score?

Boven 80% is zeer goed, 60-80% is solide met optimalisatiepotentieel, 40-60% toont basisimplementatie met hiaten, onder 40% betekent dat dringend actie nodig is.

Wat betekenen de zes auditcategorieën?

(1) Crawling & Indexering – Technische toegankelijkheid voor AI-crawlers. (2) Autoriteit & Structuur – Perceptie als betrouwbare bron. (3) Beveiliging & Techniek – Actuele beveiligingsstandaarden. (4) Compliance & Recht – Verplichte juridische informatie. (5) Reputatie & Sociaal Bewijs – Externe perceptie. (6) Content & Semantiek – Machineleesbaarheid en semantische structuur.

Technische vragen

Hoe werkt de technische analyse?

De audit analyseert uw HTML-pagina, robots.txt en sitemap, identificeert automatisch representatieve subpagina's en controleert HTTPS-headers, beveiligingsinstellingen, gestructureerde data, meta-tags en HTML-structuur. Externe API's leveren reputatiechecks.

Kan de audit mijn website beschadigen?

Nee, de audit is alleen-lezen. We sturen een enkel HTTP-verzoek en lezen publiek toegankelijke gegevens. De belasting is gelijk aan een enkel paginabezoek.

Wat zijn gestructureerde gegevens en waarom zijn ze belangrijk?

Gestructureerde gegevens (JSON-LD/Schema.org) zijn machineleesbare annotaties die content een duidelijke betekenis geven. AI-systemen gebruiken deze om content sneller te begrijpen en te citeren in hun antwoorden.

Hoe beïnvloedt robots.txt de AI-zichtbaarheid?

Het robots.txt-bestand bepaalt welke bots mogen crawlen. Voor AI-zichtbaarheid moeten GPTBot, PerplexityBot en Google-Extended niet geblokkeerd worden.

Verbeteringen & Optimalisatie

Wat zijn de belangrijkste quick wins?

(1) HTTPS activeren, (2) JSON-LD toevoegen voor Organization/Product/FAQ, (3) robots.txt openen voor AI-crawlers, (4) Meta-tags optimaliseren, (5) XML-sitemap maken.

Hoe vaak moet ik de audit herhalen?

Na elke grote websitewijziging, minstens elke 4-6 weken. Het AI-landschap evolueert snel.