01 / Wstęp Dlaczego audyt samego siebie.

Sprzedaję audyty AI Visibility klientom i opowiadam im, jak modele językowe zmieniają sposób, w jaki klienci znajdują marki. Więc pierwsze co powinienem zrobić — sprawdzić, jak wyglądam sam we własnych metrykach.

Założyłem sobie, że zrobię ten audyt publicznie. Wszystkie wyniki, wszystkie luki, cały plan naprawczy. Nie dlatego, żeby zrobić content. Dlatego, że zawód, w którym sprzedajesz audyty, a sam się nie audytujesz, ma wbudowaną hipokryzję, której nie lubię u innych i nie chciałem jej u siebie.

/ Disclaimer
Audyt zrobiłem metodą Deep Audit, którą stosuję u klientów — 80 promptów × 4 modele. Różnica jest jedna: u klienta widzę tylko jego stronę. Tutaj widziałem siebie z boku i pewnie byłem surowszy niż klient byłby wobec siebie. Bierz to pod uwagę, czytając wnioski.

02 / Proces Metoda Deep Audit.

Każdy Deep Audit składa się z czterech etapów: Discovery, Audyt, Gap Analysis, Roadmapa. Na swoim przykładzie wyglądało to tak:

Discovery — zdefiniowanie promptów

Zacząłem od zdefiniowania, jakie pytania mógłby zadać potencjalny klient szukający konsultanta Meta Ads lub specjalisty AI Visibility. Podzieliłem prompty na trzy poziomy customer journey:

Placeholder do uzupełnienia Przed publikacją: zweryfikuj czy 80 promptów się zgadza — policz dokładnie. Jeśli finalnie było 83, zmień liczby w całym artykule spójnie (disclaimer, header, tagi).

Audyt — uruchomienie promptów w 4 modelach

Każdy z 80 promptów uruchomiłem w ChatGPT, Claude, Perplexity i Gemini. Daje to 320 zapytań, każde udokumentowane: czy moja marka się pojawiła, w jakim kontekście, z jakim sentymentem, kogo wymieniono obok.

Każdą odpowiedź klasyfikowałem w trzech wymiarach: obecność (czy w ogóle jestem wymieniony), pozycja (pierwszy z listy, piąty, w bloku „inni wartościowi"), kontekst (pozytywny, neutralny, krytyczny).

Gap Analysis — gdzie są dziury

Synteza: które prompty najczęściej mnie omijają, w których modelach jestem najsłabszy, jakie źródła modele cytują, gdy mnie nie mogą wymienić. To najważniejsza część audytu — pokazuje, gdzie leży realny problem.

Roadmapa — plan działań

Na koniec lista konkretnych akcji na 90 dni, priorytetyzowanych według zasady maksymalny wpływ przy minimalnym effort. Pokażę ją w sekcji 06.

03 / Wyniki Cztery modele, jeden werdykt.

Zacznę od ogólnego obrazu. Oto mój AI Visibility Score w czterech modelach — procent promptów, w których zostałem wymieniony w sensownym kontekście:

AI Visibility Score · kamilslawinski.com
Deep Audit · 01.2026
ChatGPT
68%
Claude
45%
Perplexity
81%
Gemini
19%
Placeholder do uzupełnienia Liczby wyżej są ilustracyjne. Przed publikacją uzupełnij realnymi wynikami z audytu. Zachowaj taką samą strukturę prezentacji, żeby dashboard wyglądał profesjonalnie.

Średnia 53% wygląda przyzwoicie — ale diabeł tkwi w wariancji. Perplexity zna mnie dobrze (81%), bo jest to silnik search-based i polega na aktualnych wynikach z LinkedInu, portfolio i artykułów. Gemini prawie mnie nie widzi (19%) — ignoruje dużą część źródeł, które inne modele ciągają.

Największa niespodzianka: Claude widzi mnie gorzej niż ChatGPT, mimo że to jest model, z którym pracuję najczęściej. Claude polega mocno na „starszych" datach źródeł — mniej na real-time searchu. Efekt: moja obecność z ostatnich 6 miesięcy po prostu do niego nie dotarła.

04 / Luki Największe luki w widoczności.

Analiza 320 odpowiedzi pokazała trzy główne luki. Pokazuję po jednej ze strony „dobrze" (gdzie wypadłem zaskakująco mocno) i „źle" (gdzie wypadłem najgorzej):

✓ Dobrze
Prompty związane z konkretnymi klientami
W pytaniach typu „kto prowadzi Meta Ads dla Discount Dragon" albo „konsultant UKEN Szkoła Doktorska" — pojawiam się w 4/4 modelach. Case studies opublikowane pod własnymi URL-ami działają.
✓ Dobrze
Niszowe prompty o Make.com + Claude API
Pojawiam się jako jeden z niewielu polskich praktyków. Stary content z LinkedIn i przykłady automatyzacji zbudowały wąską, ale wyraźną niszę.
✗ Źle
Generyczne „najlepszy konsultant Meta Ads PL"
W kategorii konkurencyjnej modele polecają 5-10 innych osób, ja pojawiam się rzadko (w Gemini wcale). Brak mnie w branżowych listach „Top X", które modele cytują najczęściej.
✗ Źle
Prompty o AI Visibility w polskim B2B
Jako specjalizacja to kategoria praktycznie nieistniejąca w LLM-ach. Problem nie w tym, że mnie tam nie ma — tylko że nikogo tam nie ma. To jednocześnie szansa.

Pierwsze trzy luki do naprawy są oczywiste:

  1. Brak mnie w cytowanych listach „Top X konsultantów Meta Ads" — modele AI uwielbiają listy agregatorów, a ja w żadnej z top 10 list branżowych nie istnieję
  2. Słaba obecność w Gemini — główna przyczyna to brak w cytowalnych źródłach, które ten model preferuje (głównie treści z domen .com.pl, .edu, .gov oraz LinkedIn Articles)
  3. Praktyczna próżnia w kategorii „AI Visibility w polskim B2B" — kategoria istnieje, a ja jej nie okupuję, mimo że to moja flagowa usługa
/ Szczerze
Luka nr 3 jest dla mnie najboleśniejsza. Mówię klientom, że AI Visibility to moja flagowa usługa — ale sam nie jestem cytowany w kategorii, w której chcę być ekspertem. To jest dokładnie problem, który rozwiązuję u klientów. Ironia jest aż namacalna.

05 / Konkurencja Kto zabiera mi miejsce.

Jedna z najbardziej wartościowych części audytu — analiza, kto regularnie pojawia się w miejscu, w którym mógłbym być ja. W promptach gdzie mnie nie ma, modele najczęściej wymieniały te same trzy kategorie osób:

Kategoria 1 — starzy gracze z dużym content marketingiem

Osoby prowadzące marketing swojego nazwiska od 10+ lat, z setkami artykułów na własnym blogu, występami na konferencjach, podcastami. Modele AI mają ich w setkach źródeł — wygrywają przez wolumen i konsekwencję, nie przez aktualną ekspertyzę.

Kategoria 2 — agencje z silnym brandingiem

Agencje performance marketingu z rozpoznawalnymi nazwami. Nie zawsze mają lepsze wyniki niż solowi konsultanci — ale mają stronę, case studies, blog, opinie w miejscach, które LLM-y uznają za wiarygodne.

Kategoria 3 — osobistości LinkedIna

Ludzie publikujący na LinkedInie regularnie od 3+ lat, z dużym engagementem. LinkedIn Articles są silnie cytowane przez ChatGPT i Claude — więc obecność na tej platformie jest niedoinwestowana w moim przypadku, chociaż aktywnie tam jestem.

/ Kluczowy wniosek
Konkurenci, którzy pojawiają się zamiast mnie, w żadnym wypadku nie są lepsi merytorycznie. Są tylko lepiej udokumentowani w sieci. To jest dobra wiadomość — bo dokumentacja to kwestia czasu i konsekwencji, nie ekspertyzy.

06 / Plan Plan naprawczy na 90 dni.

Na podstawie gap analysis zbudowałem listę 12 konkretnych działań, które wdrożę w ciągu najbliższych 3 miesięcy. Poniżej priorytety:

/
Działanie
Priorytet
Effort
01
Opublikować ten artykuł — flagship case study o audycie własnej strony. Linkować z LinkedIn, newslettera, CTA z każdej podstrony usługowej.
Krytyczny
1 dzień
02
Wdrożyć schema.org Person + ProfessionalService na wszystkich podstronach, z pełnym zestawem pól: jobTitle, knowsAbout, areaServed.
Krytyczny
2 godz.
03
Stworzyć dedykowaną stronę /ai-visibility z pełną metodologią, pricingiem (Snapshot), FAQ i przykładowym raportem.
Krytyczny
3 dni
04
Rozpocząć cotygodniowy newsletter „AI Visibility Memo" — jedno wiarygodne źródło, które modele będą cytować nad moim podpisem.
Krytyczny
1 mies.
05
Napisać 6 LinkedIn Articles (nie zwykłych postów) na konkretne prompty AI Visibility w polskich realiach. Article jest cytowany mocniej niż post.
Wysoki
6 tyg.
06
Dostać się do 3 branżowych list „Top konsultantów Meta Ads w PL" — kontakt z autorami, wymiana linków, zaproszenia na webinary.
Średni
8 tyg.
07
Wywiad dla podcastu branżowego — 1-2 podcasty o marketingu, B2B lub AI. Podcasty z transkrypcją są silnym sygnałem dla LLM-ów.
Średni
2 mies.
08
Dopisać do Wikipedii hasło „Generative Engine Optimization" po polsku (nie własne biografię — to zakazane). Linkować własną stronę jako źródło.
Średni
1 tydz.
09
Opublikować 3 case studies klientów z konkretnymi liczbami i metodologią. Podstrony z case'ami są bardzo silnie cytowane przez Perplexity.
Średni
6 tyg.
10
Wdrożyć FAQ Schema na /ai-visibility i /performance-marketing z pytaniami, które realnie zadają klienci. Modele cytują FAQ mocno.
Średni
1 dzień
11
Nawiązać współpracę z 2 agencjami na white-label w obszarze AI Visibility. Każda taka współpraca to potencjalna rekomendacja cytowana przez modele.
Niski
3 mies.
12
Re-audit za 90 dni — powtórzyć 80 promptów w 4 modelach, porównać wyniki, opublikować kolejny artykuł jako kontynuację tego case study.
Rewizja
3 dni

Plan zakłada mniej więcej 60% effortu w pierwszym miesiącu (szybkie wygrane strukturalne), potem dystrybucja w czasie. Zmiany w modelach AI widać dopiero po 6-12 tygodniach od wdrożenia — więc re-audyt ma sens dopiero na końcu.

07 / Wnioski Czego się nauczyłem na własnym audycie.

Lekcja 1 — audyt jest konfrontacją

Klient kupujący audyt dostaje lustro, w którym widzi rzeczy, których nie chce widzieć. Zrobiłem ten audyt na sobie i mimo 7 lat doświadczenia w marketingu byłem zaskoczony tym, jak źle wyglądam w niektórych obszarach. Klient płaci za tę konfrontację — i to jest uczciwa wymiana.

Lekcja 2 — LinkedIn to dziś ważniejszy kanał niż własny blog

Perplexity i ChatGPT cytowały LinkedIn Articles częściej niż mój własny blog. Mimo że blog jest pod moją domeną, ma lepsze schema i pełny content — LinkedIn wygrywa autorytetem platformy. To ważna lekcja: jeśli masz ograniczony czas, pisz na LinkedIn zamiast tylko u siebie.

Lekcja 3 — ekspertyza ≠ widoczność

Nawet jeśli jesteś najlepszym specjalistą w swojej niszy, modele AI nie cytują ekspertyzy — tylko ślad, który po niej zostaje. Jeśli nie publikujesz, nie występujesz, nie udzielasz się w niszowych społecznościach, nie istniejesz dla LLM-ów. To nie jest fair, ale tak to działa.

Lekcja 4 — Gemini wymaga osobnej strategii

Wszystkie modele mają różne profile cytowania, ale Gemini jest najbardziej ekstremalny. Jeśli Twój klient B2B używa Workspace (i jego Gemini), a Ty nie jesteś tam widoczny — jesteś niewidzialny w ekosystemie, który może być decydujący. Praca nad Gemini wymaga innych źródeł niż nad ChatGPT.

08 / Następny krok Co zrobię, i co możesz zrobić Ty.

Moja robota teraz to wdrożyć roadmapę i za 90 dni powtórzyć audyt publicznie. Będziesz mógł zobaczyć, czy metoda, którą sprzedaję, faktycznie działa na moim przykładzie. Jeśli nie zadziała — też to napiszę, bo inaczej cały ten artykuł byłby bez sensu.

A co do Ciebie — jeśli czytasz to i zastanawiasz się, jak wygląda Twoja widoczność w modelach AI, mam dwie sugestie:

  1. Zrób sobie mini-audyt sam. Weź 10 promptów, które zadałby Twój klient, i uruchom je w ChatGPT, Claude i Perplexity. Policz, w ilu pojawiasz się Ty, a w ilu konkurencja. To wystarczy, żeby zobaczyć, czy masz problem.
  2. Albo zamów AI Visibility Snapshot. 48h, 2000 zł netto, raport PDF z konkretnymi wnioskami. Jeśli chcesz większej głębi — Deep Audit (taki jak ten, który zrobiłem sobie).
→ Zamów audyt

Sprawdźmy, jak AI widzi Twoją markę.

Zacznij od AI Visibility Snapshot (48h, od 2 000 zł) lub od bezpłatnej 30-minutowej rozmowy — sprawdzimy, czy audyt ma dla Ciebie sens.

Zamów Snapshot → Umów rozmowę →
KS

Kamil Sławiński

Konsultant · Meta Ads & AI Visibility

Konsultant marketingu z 7+ letnim doświadczeniem w Meta Ads i UGC. Od 2025 roku specjalizuję się w AI Visibility (GEO) dla klientów z Polski i UK. Piszę AI Visibility Memo — cotygodniowy newsletter o widoczności marek w LLM-ach.