40% więcej leadów dzięki optymalizacji pod LLM (AEO) w GitBook
Praktyczny framework, który zamienia GitBook w kanał AEO/GEO. Struktura treści, JSON-LD, sitemap, edge odświeżanie na Vercel, publiczny RAG i atrybucja do CRM. Cel: +40% leadów B2B.

Najważniejsze wnioski
- AEO to optymalizacja pod odpowiedzi LLM, nie tylko „SEO na docsach”.
- GitBook + Vercel (edge, sub-sekundowe rewalidacje) przyspiesza indeksację przez LLM.
- JSON-LD (TechArticle/HowTo/FAQ), czyste sitemap i stabilne anchory zwiększają trafność cytowań.
- Publiczny endpoint RAG + Vercel AI Gateway (np. Grok 4.3) wzmacnia „źródłowanie” odpowiedzi.
- Atrybucja do CRM: UTM-y AEO, zapis pytania użytkownika, pola self-report i mapowanie intencji.
- 6-tygodniowy plan eksperymentu dowozi +40% MQL bez zmian w produkcie.
LLM-y stają się realnym kanałem akwizycji B2B: w Perplexity/ChatGPT pada „jak zrobić X?”, a odpowiedzi linkują do docs. W analityce (UTM=aeo, self‑report) firmy widzą przejścia z tych odpowiedzi do demo/triala. Jeśli Twoje docs i changelogi w GitBook nie są „zjadliwe”, tracisz leady. Poniżej framework, jak w 6 tygodni zrobić AEO/GEO na GitBook + Vercel i dowieść ~40% więcej kwalifikowanych leadów.
AEO na GitBook: kanał dojrzałych zapytań, nie „widoczność”
Answer Engine Optimization (AEO) to przygotowanie treści tak, aby modele LLM mogły bezbłędnie cytować Twoje odpowiedzi. Chodzi o intencje transakcyjne („jak zintegrować X z Y?”) i rekomendacje narzędzi, nie o ogólną ekspozycję.
Dlaczego teraz? GitBook hostowany na Vercel obsługuje tysiące serwisów z sub-sekundowymi aktualizacjami. Perplexity/ChatGPT rosną jako źródło rekomendacji narzędzi. Vercel zapewnia bezpieczne połączenia do Vercel Postgres przez firewall/IP allowlist i wygodne mechanizmy rewalidacji treści. Dla zespołów korzystających z GitBook oznacza to łatwiejsze i bezpieczniejsze uruchomienie własnego /api/rag oraz przechowywanie pgvector bez otwierania bazy na świat. W AI Gateway jest Grok 4.3 (kontekst do 1M tokenów). To dobre warunki do podłączenia publicznego RAG i szybkiego odświeżania.
Cel biznesowy jest prosty: więcej cytowań w odpowiedziach LLM na pytania kupujących i krótsza ścieżka do demo. Sukces mierzymy wzrostem MQL i konwersji do pipeline, nie ruchem na stronie.
Struktura treści i sygnały dla LLM (schema, JSON-LD, sitemap)
LLM potrzebują jednoznacznych jednostek wiedzy. Zrób jeden temat na stronę, spójne H1/H2, krótkie akapity, stabilne anchory i kanoniczne adresy. Changelog pisz językiem „job-to-be-done” (co użytkownik może teraz zrobić szybciej).
Dodaj JSON-LD. Dla stron koncepcyjnych użyj TechArticle, dla instrukcji HowTo, dla pytań FAQPage, dla produktu SoftwareApplication (z nazwą, integracjami i linkiem do triala). Te typy jasno komunikują crawlerom i LLM, z jaką intencją mają do czynienia: TechArticle sygnalizuje treść ekspercką, HowTo kroki wykonania, FAQPage pary pytanie‑odpowiedź, a SoftwareApplication definiuje encję produktu i relacje. Każda strona powinna mieć datę modyfikacji i wersję API w metadanych.
Zadbaj o mapy: sitemap index (docs + changelog), częstotliwość aktualizacji, priorytety. W robots.txt włącz GPTBot, PerplexityBot i Google-Extended. Unikaj walli i paywalla na docsach. To sygnały, że jesteś wiarygodnym źródłem dla LLM.
Ustrukturyzowana treść + poprawne schematy i sitemapy to najtańszy sposób, aby Twoje odpowiedzi częściej trafiały do rekomendacji LLM. Czy Twoje kluczowe strony mają już JSON-LD i stabilne anchory?
- Jedna intencja na stronę; nazwy spójne z produktem i API.
- Sekcja „Szybki start” (5–7 kroków) na każdej integracji.
- FAQ z 5–10 pytaniami na dole strony (FAQPage).
- Changelog w formacie Added/Changed/Fixed/Deprecated + link do docs.
- Linki „Zobacz też”: 3–5 najbliższych tematów (bez karuzeli).
Szybkie odświeżanie (edge) i publiczny RAG na Vercel AI Gateway
Edge to warstwa CDN wykonująca logikę blisko użytkownika i crawlera. Na Vercel włącz rewalidację po webhooku z GitBook: publikacja → webhook → tag revalidate → odświeżone HTML + sitemap w sub-sekundzie. Użyj ETag i s-maxage, aby LLM widziały świeże zmiany bez pełnych rebuildów.
Publiczny RAG (Retrieval-Augmented Generation) to endpoint, który zwraca fragmenty Twoich docs jako kontekst dla modelu. Udostępnij /api/rag?q=… z top-k=8, filtrem po wersji i „source” z kanonicznym URL. Wektoruj akapity i kod; przechowuj embeddingi w Postgres (pgvector). Vercel Postgres z IP allowlist/firewallem uprości operacje.
W warstwie generowania skorzystaj z Vercel AI Gateway. Routing, cache i observability dostaniesz „z pudełka”. Grok 4.3 z 1M tokenów pozwoli na długie konteksty changelogów i całych integracji. prompt to polecenie przekazywane do modelu; agent to autonomiczny komponent AI, który wykonuje kroki na podstawie celu — może wołać Twój RAG i zwracać linki do docs.
Dodaj guardrails: limiter zapytań, filtr PII, whitelista domen w CORS, logowanie zapytań (bez danych wrażliwych) do analityki. W zamian dostajesz stabilne cytowania i możliwość wglądu w realne pytania rynku.
- Webhook z GitBook → revalidateTag w Vercel (ISR).
- Sitemapy odświeżane tym samym webhookiem.
- /api/rag zwraca: tytuł, url, score, fragment, version.
- Embeddingi: OpenAI/Grok embeddings; storage: Postgres + pgvector.
- AI Gateway: cache, fallback modelu, metryki kosztów i trafności.
Atrybucja i plan na +40% leadów w 6 tygodni
AEO musi wspinać się do CRM. Dodaj UTM „utm_channel=aeo” do CTA w docsach i changelogu — dzięki temu klik przejścia z dokumentacji (często po rekomendacji z LLM, które nie przekazują referrera) trafia do CRM z poprawnym kanałem zamiast „Direct”. To pozwala policzyć MQL/pipeline z AEO i porównać go z innymi źródłami. Formularz leadowy niech zapisuje: ostatnią stronę, anchor, zapytanie do /api/rag i identyfikator odpowiedzi. Dodaj pole self-report „Z jakiej AI korzystałeś?” (Perplexity/ChatGPT/Inne). Mapuj intencję (np. „Integracja z Slack ETL”) do konta i use-case’u.
Plan eksperymentu bez przebudowy produktu: tydzień 0 – baseline MQL i indeksacji; tydzień 1 – refaktor top 10 stron + JSON-LD + FAQ; tydzień 2 – dedykowany changelog i sitemap-changelog; tydzień 3 – uruchom /api/rag i AI Gateway; tydzień 4 – CTA z UTM i pola w formularzu; tydzień 5 – tuning promptów, filtry; tydzień 6 – ocena wpływu i rollout.
Mierz: liczbę cytowań w odpowiedziach LLM (z logów RAG i self-reportów), czas od publikacji do pierwszego zapytania LLM, MQL z kanału AEO, konwersję z AEO→demo→pipeline oraz koszt na MQL. Jeśli liczby nie rosną po 3 tygodniach, sprawdź JSON-LD i spójność tytułów.
- Formularz: hidden fields question, answer_id, anchor, utm_channel=aeo.
- Raport: MQL z AEO vs inne kanały; koszt/MQL.
- Alert: brak cytowań z RAG przez 48h po release → sprawdź sitemap/robots.
AEO na GitBook to szybka ścieżka do intencji zakupowych obecnych w odpowiedziach LLM. Połącz strukturalne treści, szybkie odświeżanie na Vercel, publiczny RAG i atrybucję do CRM, a zbudujesz powtarzalny kanał +40% MQL. Chcesz przegadać wdrożenie pod Twój stack? Umów krótką konsultację — bez sprzedażowej presji, z konkretnym planem na 6 tygodni.
Najczęstsze pytania
Czy AEO zastępuje klasyczne SEO?
Nie. AEO uzupełnia SEO, ale działa na innej powierzchni i ma inne metryki. SEO mierzy: pozycje, impressions, CTR, sesje non‑brand, udział w SERP. AEO mierzy: share‑of‑answer (udział w odpowiedziach LLM), liczbę cytowań i klików w linki źródłowe, czas do pierwszej cytacji po publikacji, MQL/SQL/pipe z CTA w docsach oraz koszt/MQL. Format i sygnały też się różnią: task‑based docs/HowTo/FAQ i świeżość vs autorytet domeny i linki. Kanały się wzmacniają, lecz raportujesz je osobno.
Jakie typy JSON-LD są najważniejsze dla dokumentacji?
TechArticle dla artykułów technicznych, HowTo dla instrukcji krok-po-kroku, FAQPage dla sekcji pytań i odpowiedzi oraz SoftwareApplication dla strony produktu i integracji.
Czy publiczny RAG nie ujawni za dużo wiedzy konkurencji?
RAG powinien zwracać wyłącznie fragmenty treści, które i tak są publiczne w Twoich docsach — nie ma tu dostępu do danych wewnętrznych ani klientów. Ryzyko konkurencyjne to głównie wygodniejszy dostęp do już publicznych fragmentów. Ogranicz je przez rate‑limiting, redakcję PII/sekretów przed indeksacją, filtrowanie po wersji/zakresach oraz logowanie zapytań. Zyski (cytowania, atrybucja, MQL) zwykle przewyższają to ryzyko.
Ile zasobów potrzebuje MŚP, aby wdrożyć ten framework?
Zespół 2–3 osób na 4–6 tygodni: tech writer/PM, dev (Vercel/DB), ops/analityka. Start można zrobić szybciej, skupiając się na top 10 stronach i jednym endpointcie RAG.
Jak mierzyć wpływ AEO, gdy referrer to „Direct”?
Podejdź prosto: 1) dodaj do wszystkich CTA w docsach/changelogu UTM (np. utm_channel=aeo) — gdy użytkownik przyjdzie z LLM i kliknie CTA, kanał „AEO” wejdzie do CRM mimo braku referrera; 2) pole self‑report „Z jakiej AI korzystałeś?” (Perplexity/ChatGPT); 3) ukryte pola: ostatnia strona/anchor i ostatnie pytanie do /api/rag. W CRM ustaw regułę: jeśli utm_channel=aeo lub self‑report wskazuje AI, przypisz lead do AEO.