01 / Wstęp Dlaczego audyt samego siebie.
Sprzedaję audyty AI Visibility klientom i opowiadam im, jak modele językowe zmieniają sposób, w jaki klienci znajdują marki. Więc pierwsze co powinienem zrobić — sprawdzić, jak wyglądam sam we własnych metrykach.
Założyłem sobie, że zrobię ten audyt publicznie. Wszystkie wyniki, wszystkie luki, cały plan naprawczy. Nie dlatego, żeby zrobić content. Dlatego, że zawód, w którym sprzedajesz audyty, a sam się nie audytujesz, ma wbudowaną hipokryzję, której nie lubię u innych i nie chciałem jej u siebie.
02 / Proces Metoda Deep Audit.
Każdy Deep Audit składa się z czterech etapów: Discovery, Audyt, Gap Analysis, Roadmapa. Na swoim przykładzie wyglądało to tak:
Discovery — zdefiniowanie promptów
Zacząłem od zdefiniowania, jakie pytania mógłby zadać potencjalny klient szukający konsultanta Meta Ads lub specjalisty AI Visibility. Podzieliłem prompty na trzy poziomy customer journey:
- Awareness (25 promptów) — ogólne pytania o kategorię: „co to jest AI Visibility", „jak zwiększyć widoczność marki w ChatGPT", „jak się mierzy obecność w LLM-ach"
- Consideration (35 promptów) — porównania i rekomendacje: „najlepszy konsultant Meta Ads w Polsce", „kto robi audyty AI Visibility w Polsce", „agencje performance marketingu dla B2B"
- Decision (20 promptów) — konkretne intencje: „ile kosztuje audyt AI Visibility", „jak wygląda współpraca z konsultantem GEO", „czy warto zainwestować w AI Visibility w 2026"
Audyt — uruchomienie promptów w 4 modelach
Każdy z 80 promptów uruchomiłem w ChatGPT, Claude, Perplexity i Gemini. Daje to 320 zapytań, każde udokumentowane: czy moja marka się pojawiła, w jakim kontekście, z jakim sentymentem, kogo wymieniono obok.
Każdą odpowiedź klasyfikowałem w trzech wymiarach: obecność (czy w ogóle jestem wymieniony), pozycja (pierwszy z listy, piąty, w bloku „inni wartościowi"), kontekst (pozytywny, neutralny, krytyczny).
Gap Analysis — gdzie są dziury
Synteza: które prompty najczęściej mnie omijają, w których modelach jestem najsłabszy, jakie źródła modele cytują, gdy mnie nie mogą wymienić. To najważniejsza część audytu — pokazuje, gdzie leży realny problem.
Roadmapa — plan działań
Na koniec lista konkretnych akcji na 90 dni, priorytetyzowanych według zasady maksymalny wpływ przy minimalnym effort. Pokażę ją w sekcji 06.
03 / Wyniki Cztery modele, jeden werdykt.
Zacznę od ogólnego obrazu. Oto mój AI Visibility Score w czterech modelach — procent promptów, w których zostałem wymieniony w sensownym kontekście:
Średnia 53% wygląda przyzwoicie — ale diabeł tkwi w wariancji. Perplexity zna mnie dobrze (81%), bo jest to silnik search-based i polega na aktualnych wynikach z LinkedInu, portfolio i artykułów. Gemini prawie mnie nie widzi (19%) — ignoruje dużą część źródeł, które inne modele ciągają.
Największa niespodzianka: Claude widzi mnie gorzej niż ChatGPT, mimo że to jest model, z którym pracuję najczęściej. Claude polega mocno na „starszych" datach źródeł — mniej na real-time searchu. Efekt: moja obecność z ostatnich 6 miesięcy po prostu do niego nie dotarła.
04 / Luki Największe luki w widoczności.
Analiza 320 odpowiedzi pokazała trzy główne luki. Pokazuję po jednej ze strony „dobrze" (gdzie wypadłem zaskakująco mocno) i „źle" (gdzie wypadłem najgorzej):
Pierwsze trzy luki do naprawy są oczywiste:
- Brak mnie w cytowanych listach „Top X konsultantów Meta Ads" — modele AI uwielbiają listy agregatorów, a ja w żadnej z top 10 list branżowych nie istnieję
- Słaba obecność w Gemini — główna przyczyna to brak w cytowalnych źródłach, które ten model preferuje (głównie treści z domen .com.pl, .edu, .gov oraz LinkedIn Articles)
- Praktyczna próżnia w kategorii „AI Visibility w polskim B2B" — kategoria istnieje, a ja jej nie okupuję, mimo że to moja flagowa usługa
05 / Konkurencja Kto zabiera mi miejsce.
Jedna z najbardziej wartościowych części audytu — analiza, kto regularnie pojawia się w miejscu, w którym mógłbym być ja. W promptach gdzie mnie nie ma, modele najczęściej wymieniały te same trzy kategorie osób:
Kategoria 1 — starzy gracze z dużym content marketingiem
Osoby prowadzące marketing swojego nazwiska od 10+ lat, z setkami artykułów na własnym blogu, występami na konferencjach, podcastami. Modele AI mają ich w setkach źródeł — wygrywają przez wolumen i konsekwencję, nie przez aktualną ekspertyzę.
Kategoria 2 — agencje z silnym brandingiem
Agencje performance marketingu z rozpoznawalnymi nazwami. Nie zawsze mają lepsze wyniki niż solowi konsultanci — ale mają stronę, case studies, blog, opinie w miejscach, które LLM-y uznają za wiarygodne.
Kategoria 3 — osobistości LinkedIna
Ludzie publikujący na LinkedInie regularnie od 3+ lat, z dużym engagementem. LinkedIn Articles są silnie cytowane przez ChatGPT i Claude — więc obecność na tej platformie jest niedoinwestowana w moim przypadku, chociaż aktywnie tam jestem.
06 / Plan Plan naprawczy na 90 dni.
Na podstawie gap analysis zbudowałem listę 12 konkretnych działań, które wdrożę w ciągu najbliższych 3 miesięcy. Poniżej priorytety:
Plan zakłada mniej więcej 60% effortu w pierwszym miesiącu (szybkie wygrane strukturalne), potem dystrybucja w czasie. Zmiany w modelach AI widać dopiero po 6-12 tygodniach od wdrożenia — więc re-audyt ma sens dopiero na końcu.
07 / Wnioski Czego się nauczyłem na własnym audycie.
Lekcja 1 — audyt jest konfrontacją
Klient kupujący audyt dostaje lustro, w którym widzi rzeczy, których nie chce widzieć. Zrobiłem ten audyt na sobie i mimo 7 lat doświadczenia w marketingu byłem zaskoczony tym, jak źle wyglądam w niektórych obszarach. Klient płaci za tę konfrontację — i to jest uczciwa wymiana.
Lekcja 2 — LinkedIn to dziś ważniejszy kanał niż własny blog
Perplexity i ChatGPT cytowały LinkedIn Articles częściej niż mój własny blog. Mimo że blog jest pod moją domeną, ma lepsze schema i pełny content — LinkedIn wygrywa autorytetem platformy. To ważna lekcja: jeśli masz ograniczony czas, pisz na LinkedIn zamiast tylko u siebie.
Lekcja 3 — ekspertyza ≠ widoczność
Nawet jeśli jesteś najlepszym specjalistą w swojej niszy, modele AI nie cytują ekspertyzy — tylko ślad, który po niej zostaje. Jeśli nie publikujesz, nie występujesz, nie udzielasz się w niszowych społecznościach, nie istniejesz dla LLM-ów. To nie jest fair, ale tak to działa.
Lekcja 4 — Gemini wymaga osobnej strategii
Wszystkie modele mają różne profile cytowania, ale Gemini jest najbardziej ekstremalny. Jeśli Twój klient B2B używa Workspace (i jego Gemini), a Ty nie jesteś tam widoczny — jesteś niewidzialny w ekosystemie, który może być decydujący. Praca nad Gemini wymaga innych źródeł niż nad ChatGPT.
08 / Następny krok Co zrobię, i co możesz zrobić Ty.
Moja robota teraz to wdrożyć roadmapę i za 90 dni powtórzyć audyt publicznie. Będziesz mógł zobaczyć, czy metoda, którą sprzedaję, faktycznie działa na moim przykładzie. Jeśli nie zadziała — też to napiszę, bo inaczej cały ten artykuł byłby bez sensu.
A co do Ciebie — jeśli czytasz to i zastanawiasz się, jak wygląda Twoja widoczność w modelach AI, mam dwie sugestie:
- Zrób sobie mini-audyt sam. Weź 10 promptów, które zadałby Twój klient, i uruchom je w ChatGPT, Claude i Perplexity. Policz, w ilu pojawiasz się Ty, a w ilu konkurencja. To wystarczy, żeby zobaczyć, czy masz problem.
- Albo zamów AI Visibility Snapshot. 48h, 2000 zł netto, raport PDF z konkretnymi wnioskami. Jeśli chcesz większej głębi — Deep Audit (taki jak ten, który zrobiłem sobie).
Sprawdźmy, jak AI widzi Twoją markę.
Zacznij od AI Visibility Snapshot (48h, od 2 000 zł) lub od bezpłatnej 30-minutowej rozmowy — sprawdzimy, czy audyt ma dla Ciebie sens.