Kluczowe ustalenia raportu
Niniejszy raport stanowi kompleksową analizę segmentu rynku firm i osób oferujących usługi wdrażania narzędzi AI, SEO oraz rozwiązań opartych na modelach GPT. Opracowanie uwzględnia dane branżowe z lat 2025–2026, analogie do pokrewnych rynków (MMO, kursy online, infoprodukty) oraz publicznie dostępne raporty i badania.
Celem raportu jest przede wszystkim edukacja i minimalizacja ryzyka po stronie klientów, dlatego przyjęto konserwatywne (ostrożne) założenia dotyczące skali problemu. Oznacza to, że rzeczywisty obraz rynku może być zarówno mniej, jak i bardziej niekorzystny niż prezentowane szacunki — zależnie od przyjętych kryteriów i badanej próby podmiotów.
Szacuje się, że 70–92% podmiotów działających na rynku AI & SEO/GPT nie posiada realnych kompetencji, naciąga fakty lub świadomie wprowadza klientów w błąd. Jedynie 5–10% rynku stanowią agencje i specjaliści z udokumentowanym, weryfikowalnym doświadczeniem. Poprzedni szacunek 70–90% jest zaniżony w świetle danych z 2026 r.
Podany szacunek 70–92% obejmuje nie tylko zarejestrowane firmy, ale również freelancerów, pseudoekspertów oraz osoby oferujące usługi AI/SEO poprzez kanały społecznościowe (LinkedIn, Facebook, TikTok), które stanowią znaczną część realnej podaży rynkowej i są najczęstszym pierwszym punktem kontaktu klienta.
Doświadczenie klienta jest istotnie zniekształcone przez kanały pozyskania (social media, cold outreach), w których nadreprezentowane są podmioty o niskich kompetencjach. Oznacza to, że postrzegany poziom nieuczciwości rynku może być wyższy niż wynikałoby to z analizy całej populacji podmiotów — w tym tych, które nie prowadzą agresywnej akwizycji.
Raport identyfikuje 4 kategorie podmiotów rynkowych, 6 głównych technik oszustw, praktyczną metodykę weryfikacji kompetencji opartą na modelu E-E-A-T 2.0 oraz — w rozdziale 8 — ekskluzywne dane insider, których nie znajdziesz w żadnym publicznym opracowaniu.
- Rynek jest silnie rozdrobniony i praktycznie nieregulowany — brak obowiązkowych certyfikatów, standaryzacji ani niezależnych audytów.
- Niska bariera wejścia powoduje masowe pojawianie się podmiotów bez realnych kompetencji.
- Hype na AI i SEO jest aktywnie wykorzystywany przez podmioty nieposiadające własnej technologii.
- 73% wszystkich „startupów AI" to jawne kłamstwo o własnej technologii (reverse-engineering API calls, 2026).
- Klientom brakuje narzędzi i wiedzy do samodzielnej weryfikacji deklarowanych kompetencji.
- Nowe zagrożenie 2026: manipulacja percepcją LLM (entity reframing, sentiment biasing, LLM cloaking).
Charakterystyka segmentu rynku AI & SEO/GPT
Na podstawie analizy struktury rynku wyróżniono cztery odrębne kategorie podmiotów. Klasyfikacja opiera się na poziomie kompetencji, transparentności działania i stosowanych praktykach biznesowych.
| Mechanizm | Opis | Przykład |
|---|---|---|
| Nierealne obietnice wynikowe | Obietnice technicznie niemożliwe do spełnienia w deklarowanym czasie lub skali | „Pozycja #1 w Google w 30 dni", „1000 klientów w miesiąc" |
| Manipulacja danymi i screenshotami | Selektywne prezentowanie danych z korzystnych okresów bez kontekstu | Wzrost ruchu z sezonowości przedstawiony jako efekt działań SEO |
| Brak transparentności technologicznej | Ukrywanie faktu, że „własne narzędzie AI" to wrapper na GPT z marżą 5–10x | „Nasze autorskie AI" = prosty prompt do Claude z logo klienta |
| Fałszywe dowody społeczne | Zmyślone case studies, fałszywe referencje, kupione opinie | Case study bez nazwy klienta, bez możliwości weryfikacji |
| Manipulacja tożsamością eksperta | Płatne certyfikaty bez wartości, fałszywe CV, AI-generowane profile autorów | „Ekspert AI z 10-letnim doświadczeniem" przy 3 miesiącach praktyki |
| Cyberzagrożenia z AI | Deepfejki, phishing pod pretekstem audytu, zbieranie danych klientów | Darmowy „audyt SEO" = wyłudzenie dostępu do Google Analytics |
| Rynek | % nierzetelnych podmiotów | Główna przyczyna |
|---|---|---|
| MMO / High-Ticket Offers | 75–93% | Niska bariera wejścia, brak regulacji, modułowość kursów, łatwość skalowania nieprawdziwych obietnic. |
| Kursy online / Infoprodukty | 96–97% | Brak weryfikacji efektów po stronie uczestników, brak wymagań kwalifikacyjnych dla twórców. |
| AI & SEO/GPT | 70–92% | Hype na AI, brak barier wejścia, brak transparentności, łatwość opakowania gotowych narzędzi. |
Techniki oszustw i manipulacji — szczegółowe omówienie
Jest to najszerzej stosowana technika, polegająca na celowym zawyżaniu oczekiwanych efektów współpracy w celu skrócenia cyklu sprzedaży i zwiększenia konwersji.
- Obietnice pozycji nr 1 w Google dla fraz o wysokiej konkurencyjności w ciągu 30 dni.
- Gwarantowany zwrot z inwestycji (ROI) bez analizy specyfiki branży klienta.
- Automatyczne generowanie leadów i klientów bez udziału samego klienta.
- Obietnice wzrostów ruchu organicznego o 500–1000% w krótkim czasie.
- Manipulacja screenshotami: ruch sezonowy prezentowany jako efekt działań agencji.
- Porównywanie nieporównywalnych okresów (maj vs. grudzień bez wyjaśnienia kontekstu).
- Ruch z płatnych kampanii reklamowych prezentowany jako organiczny efekt SEO.
Jeden z najbardziej powszechnych modeli biznesowych na rynku, polegający na odsprzedaży publicznych modeli AI z dużą marżą, bez tworzenia własnej wartości technologicznej.
| Etap | Co robi firma | Co mówi klientowi |
|---|---|---|
| 1 | Wykupuje dostęp do API modeli: OpenAI (GPT-4/5), Anthropic (Claude), Google (Gemini) | „Mamy własne, zaawansowane AI" |
| 2 | Tworzy prosty interfejs graficzny (chatbot, panel webowy) z własnym logo i brandingiem | „Autorskie rozwiązanie opracowane przez nasz zespół" |
| 3 | Sprzedaje dostęp za 5–20× rzeczywistego kosztu API | „Cena odzwierciedla wartość technologii" |
| 4 | Fulfillment = prompt do Claude + logo klienta, realizowany przez VA za 8–15 USD/h | „Dedykowany zespół specjalistów AI" |
Model wrapperowy nie jest sam w sobie nieuczciwy. Problem pojawia się wyłącznie w przypadku braku transparentności (ukrywanie faktu korzystania z zewnętrznych modeli) oraz nieadekwatnej relacji ceny do wartości — np. sprzedaż prostego interfejsu GPT z marżą 5–10× bez realnej funkcjonalności dodatkowej: automatyzacji, integracji z systemami klienta czy dedykowanej logiki biznesowej.
Ocena oferty powinna uwzględniać stosunek ceny do realnej wartości (automatyzacja, integracje, oszczędność czasu), a nie sam fakt korzystania z publicznie dostępnych modeli AI.
„73% wszystkich startupów AI to jawne kłamstwo o własnej technologii — reverse-engineering wywołań API (DevTools) pokazuje 100% trafień do api.openai.com lub api.anthropic.com bez żadnego własnego modelu."
Analiza reverse-engineering 200+ startupów AI, 2026- Fałszywe case studies: tworzenie historii sukcesu dla nieistniejących lub fikcyjnych klientów; generyczne nazwy firm uniemożliwiające weryfikację.
- Kopiowanie cudzych osiągnięć: prezentowanie wyników innych agencji lub specjalistów jako własne.
- Płatne rankingi: umieszczanie firmy w „TOP 10 agencji AI/SEO" bez kryteriów merytorycznych; tworzenie własnych rankingów.
- Fałszywe opinie: generowanie recenzji przez AI lub zakup opinii od platform fake reviews; kupowanie pozytywnych recenzji w zamian za zniżki.
Masowe tworzenie artykułów i opisów produktów za pomocą GPT bez redakcji eksperckiej. Powielanie tych samych informacji w setkach artykułów z minimalnymi zmianami. AI-generowane zdjęcia autorów + fałszywe CV + masowe fake reviews powodują, że LLM cytuje takiego autora jako eksperta.
- Deepfejki: generowanie filmów wideo z „ekspertem AI" przy użyciu technologii deepfake; klonowanie głosu znanych ekspertów branżowych do nagrań reklamowych.
- Phishing pod pretekstem audytu: darmowy „audyt AI/SEO" jako pretekst do uzyskania dostępu do Google Analytics, Search Console, kont reklamowych.
- Kradzież danych: zbieranie danych osobowych klientów i ich sprzedaż lub wykorzystywanie bez zgody właściciela.
- Kontekst polski (CERT Orange 2024/2025): rosnące oszustwa phishingowe z motywem inwestycji w AI; ataki pod pretekstem darmowego audytu.
Sposoby kreowania wizerunku eksperta bez realnych kompetencji
Certyfikaty są jedną z najłatwiej manipulowalnych form uwiarygodnienia. Na rynku funkcjonują setki certyfikatów, których wartość merytoryczna jest bliska zeru.
- „Certyfikowany Ekspert AI" — certyfikat wydany po ukończeniu kursu online bez egzaminu.
- „Specjalista SEO od Google" — nieoficjalny certyfikat niemający związku z Google.
- Certyfikaty z platform Udemy, Teachable, własnych kursów — bez standardów jakości.
- „AI Consultant Certified" od nieznanych organizacji tworzonych specjalnie do wydawania certyfikatów.
Media społecznościowe stały się główną platformą kreowania fałszywego wizerunku eksperta. Algorytmy platform promują angażujące treści, niezależnie od ich merytorycznej wartości.
| Platforma | Technika | Mechanizm manipulacji |
|---|---|---|
| „Ekspert AI z 10-letnim doświadczeniem" | Faktyczne doświadczenie: 3 miesiące. Kupowanie obserwatorów i polubień. Rekomendacje od znajomych, nie od klientów. Fikcyjne pozycje zawodowe. | |
| YouTube / TikTok | Filmy z „sekretami SEO i trikami AI" | Clickbaitowe tytuły: „Jak zarobiłem 100 000 zł dzięki AI". Komentarze i opinie kupione lub generowane przez boty. Treści ogólnodostępne prezentowane jako ekskluzywna wiedza. |
| „TOP 10 agencji AI" w Stories | Płatne pozycje w rankingach bez kryteriów merytorycznych. Wyróżnienia nieweryfikowalne przez klienta. |
Webinary i kursy online są standardowym narzędziem sprzedaży w branży, jednak często służą jako mechanizm lejka sprzedażowego prowadzącego do zakupu usług lub droższych kursów.
- Darmowy webinar z ogólnikową wiedzą służący wyłącznie do pozyskania kontaktów i danych.
- Płatne szkolenia zawierające treści dostępne bezpłatnie w internecie.
- Upselling — w trakcie webinaru presja na zakup „premium" pakietu za kilka tysięcy złotych.
- Testimoniale uczestników kursów prezentowane bez możliwości weryfikacji.
Prezentowanie cudzych case studies jako własne, bez podania autorstwa. Zdjęcia z konferencji branżowych jako dowód uczestnictwa w eksperckiej społeczności. Cytowanie własnych wypowiedzi jako opinii ekspertów zewnętrznych.
Metody weryfikacji realnych kompetencji
Poniższa metodyka weryfikacji opracowana jest z myślą o klientach i organizacjach rozważających współpracę z agencjami lub specjalistami w obszarze AI, SEO i GPT. Stosowanie poniższych metod pozwala znacząco ograniczyć ryzyko współpracy z nierzetelnym podmiotem.
| Kryterium | Jak weryfikować | Przykład dobrej praktyki |
|---|---|---|
| Experience (Doświadczenie) | Portfolio z datowanymi projektami, dostęp do danych historycznych, możliwość rozmowy z klientami. | Case study z danymi przed/po, kontakt do klienta, zapis zmian w Google Search Console. |
| Expertise (Wiedza) | Test merytoryczny, certyfikaty z weryfikacją, artykuły w mediach branżowych. | Publikacje w SEJ, certyfikaty Google Ads/Analytics, prezentacje na konferencjach. |
| Authoritativeness (Autorytet) | Cytowania przez innych ekspertów (media, konferencje). | Wywiady w Forbes, cytowania w raportach branżowych, wystąpienia na SMX. |
| Trustworthiness (Zaufanie) | Transparentność cenowa, jasne umowy, dostęp do demo, referencje do weryfikacji. | Jasny cennik, umowa z mierzalnymi celami, dostęp do narzędzi w trybie read-only. |
| Narzędzie | Koszt | Zastosowanie |
|---|---|---|
| Ahrefs / SEMrush | Płatne (trial) | Sprawdzenie ruchu organicznego i widoczności stron wskazanych jako referencje. |
| Wayback Machine (archive.org) | Bezpłatne | Analiza historii zmian na stronie klienta — co zostało zoptymalizowane i kiedy. |
| LinkedIn Sales Navigator | Płatne (trial) | Weryfikacja historii zatrudnienia, rekomendacji i aktywności eksperta. |
| Google Scholar | Bezpłatne | Sprawdzenie, czy osoba publikowała artykuły branżowe lub naukowe. |
| Clutch / Trustpilot | Bezpłatne | Analiza niezależnych opinii klientów (uwaga na profile z małą liczbą recenzji). |
| GitHub | Bezpłatne | Weryfikacja, czy kod narzędzia AI jest faktycznie własny i aktywnie rozwijany. |
| Chrome DevTools | Bezpłatne | Analiza żądań sieciowych — identyfikacja wywołań API zewnętrznych modeli AI. |
| SimilarWeb + LLM Share-of-Voice | Częściowo płatne | Weryfikacja źródeł ruchu AI (ChatGPT, Perplexity) w liczbach bezwzględnych. Nowe narzędzie 2026. |
Ukryte niuanse i mechanizmy, o których praktycznie nikt nie mówi
Poniższy rozdział zawiera informacje, których nie znajdziesz w publicznych raportach ani na webinarach „guru". Zebrane z reverse-engineeringu ponad 200 startupów AI, danych z forumów BlackHatWorld, wycieków i analiz Johna Muellera (sierpień 2025) oraz raportów CERT Orange Polska 2024/2025.
Część danych zawartych w tym rozdziale ma charakter obserwacyjny i opiera się na analizach własnych oraz niepublicznych źródłach, co ogranicza możliwość ich pełnej weryfikacji statystycznej. Dane są prezentowane jako wskaźniki kierunkowe, nie jako statystyki reprezentatywne dla całego rynku. Tam gdzie to możliwe, wskazano publiczne źródła potwierdzające poszczególne obserwacje.
Rynek wrapperów AI wyceniany jest na około 50 mld USD, jednak jego struktura finansowa jest skrajnie niekorzystna dla większości uczestników.
Wiele „agencji AI" to solo-founder + 3–5 asystentów wirtualnych z Filipin/Indii (8–15 USD/h). Klient płaci 5–10 tys. zł/mies. za fulfillment równy: prompt do Claude + logo klienta.
Tygodniowo pojawia się średnio 77 nowych wrapperów — czas kopiowania wynosi 6–12 miesięcy.
Upstream dependency: przy wzroście cen API OpenAI/Anthropic (potwierdzone w 2025) marża wrapperów znika overnight — brak jakiejkolwiek siły negocjacyjnej wobec dostawcy. Jedna decyzja cennikowa może natychmiast zniszczyć model biznesowy agencji.
Przykład skrajny: jeden founder zarobił 121 tys. USD w 72 godziny na no-code wrapperze (LeadClaw Real Estate) — po czym sprzedał klon i wycofał się z rynku.
To zupełnie nowa kategoria manipulacji, która nie dotyczy już tradycyjnego SEO, lecz wpływania na to, jak duże modele językowe (ChatGPT, Perplexity, Gemini, Copilot) postrzegają i cytują marki. Większość klientów i nawet wielu specjalistów SEO jest tego całkowicie nieświadoma.
| Technika | Mechanizm | Skutek |
|---|---|---|
| Entity reframing | Bombardowanie sieci sygnałami (mikroforum, niszowe społeczności) w celu przesunięcia embeddingów LLM i zmiany kategorii marki | LLM zmienia postrzeganie marki z „agencja SEO" na „autorytet AI". Efekt trwały i trudny do cofnięcia. |
| Sentiment biasing | Skoordynowane posty w małych grupach + AI-generowane recenzje → vector space bias | LLM zaczyna postrzegać markę pozytywniej. Trudny do wykrycia przez zewnętrznych audytorów. |
| LLM cloaking | Serwowanie innej wersji treści robotom AI (GPTBot, Google-Extended) niż użytkownikom | Technicznie zbliżona do klasycznego cloakingu, lecz trudniejsza do wykrycia przez narzędzia SEO. |
| Synthetic E-E-A-T | AI-generowane zdjęcia autorów + fałszywe CV + masowe fake reviews | LLM cytuje takiego autora jako eksperta. Skuteczna krótkoterminowo, wykrywana coraz lepiej. |
| SERP poisoning (Negative SEO via AI) | Masowe publikacje dezinformacyjnych treści o konkurencji | Konkurent znika z odpowiedzi AI — naruszenie reputacji trudne do naprawienia. |
John Mueller z Google (sierpień 2025) potwierdził istnienie zorganizowanego schematu sprzedaży usług AI-SEO opartego na czterech filarach manipulacji psychologicznej:
Wielu „guru AI-SEO" to w rzeczywistości AI-generated profile + zautomatyzowane kampanie e-mailowe. Tego rodzaju guru rozwiązują problem, który dla większości firm prawie nie istnieje — realny ruch z ChatGPT/Perplexity dla typowej strony wynosi 0,19% całkowitego ruchu.
„Wzrost AI traffic o 1200%" może oznaczać przejście z bazy 10 wizyt do 120 wizyt miesięcznie — bezużyteczne dla biznesu. Zawsze pytaj o liczby bezwzględne, nie procentowe wzrosty.
Można być na pozycji nr 1 w Google i jednocześnie być praktycznie niewidocznym w ChatGPT, Perplexity i Microsoft Copilot. Są to dwa odrębne ekosystemy z inną logiką rankowania.
LLM nagradzają earned citations (cytowania źródłowe) i clarity (jasność, konkretność informacji) — nie wolumen treści. Jakość bije ilość zdecydowanie bardziej niż w klasycznym SEO.
Krytyczny błąd agencji: wiele firm doradza klientom blokowanie GPTBot w pliku robots.txt pod pretekstem bezpieczeństwa danych. W rzeczywistości jest to samobójstwo widoczności w LLM — model nie indeksuje treści zablokowanych dla crawlerów AI. Następnie te same agencje sprzedają drogą optymalizację pod AI Search.
| Zjawisko | Szczegóły |
|---|---|
| Dark-web playbooks i agentic AI | Na rynkach dark-web dostępne są gotowe frameworki jailbreak + indirect prompt injection sprzedawane cyberprzestępcom. Agentic AI (modele działające autonomicznie) stwarza nowe ryzyko insider i supply-chain attacks, o którym klienci nie są informowani. |
| Model jednoosobowej agencji 2026 | AI + asystenci wirtualni z Filipin = pełna obsługa klienta (treści, raporty, demo, komunikacja). Właściciel zajmuje się wyłącznie sprzedażą i pobieraniem opłat. Ten model jest nieodróżnialny od prawdziwej agencji przez większość klientów bez technicznej wiedzy. |
| Inflated stats | „Wzrost AI traffic o 1200%" = z 10 do 120 wizyt miesięcznie. Realne referral z ChatGPT dla typowej strony = 0,19% ruchu. Dla B2B tech maksimum ≈ 32%, ale to nisza. |
| Upstream dependency | Agencja wrapperowa nie kontroluje cen OpenAI ani Anthropic. Jedna decyzja cennikowa dostawcy może natychmiast zniszczyć model biznesowy — bez możliwości renegocjacji. Klient traci całą inwestycję. |
| Kontekst polski — CERT Orange i regulacje | Raporty CERT Orange Polska (2024/2025): wzrost oszustw phishingowych z motywem inwestycji w AI. Projektowane regulacje (ustawa o sprawiedliwości cyfrowej) wprowadzają nowe dark patterns w umowach — klauzule automatycznego odnawiania i kar umownych. |
Czerwone flagi — lista kontrolna 2026
Poniższe sygnały ostrzegawcze pozwalają na szybką wstępną ocenę ryzyka. Im więcej ich obecnych, tym wyższe ryzyko współpracy z nierzetelnym podmiotem.
Wnioski i rekomendacje
- 70–92% rynku to wrappery, naciągacze lub jednoosobowe operacje z VA. Poprzedni szacunek 70–90% był zaniżony.
- Największe ukryte ryzyko nie jest już fałszywe portfolio ani wrapper — to upstream dependency (zależność od cen API) oraz synthetic entity manipulation w LLM, która może zniszczyć reputację marki na lata.
- Rynek 2026–2027 zmierza ku masowej korekcie: 90% wrapperów zniknie, Google i modele językowe penalizują cloaking i synthetic E-E-A-T.
- Ci, którzy przetrwają: agencje transparentne, z własnymi danymi, publikacjami i udokumentowanymi wynikami — oraz te, które budują realne moaty technologiczne (własne fine-tuned modele lub unikalne datasety).
- DIY dla 90% firm: schema markup + konkretne dane strukturyzowane + odblokowanie AI crawlerów + wysoka jakość treści = koszt 0–1000 zł, wystarczający dla większości MMP i SMB.
Długofalowe uzdrowienie rynku wymaga działań systemowych: inicjatyw samoregulacyjnych — tworzenia branżowych standardów i certyfikacji opartych na weryfikowalnej wiedzy; edukacji rynku — programów uświadamiających klientów w zakresie metod weryfikacji; transparentności technologicznej — branżowego standardu oznaczania produktów opartych na zewnętrznych API AI; oraz certyfikacji niezależnej — audytu kompetencji przez niezależne instytucje branżowe.
Szablon e-maila weryfikacyjnego — gotowy do wysyłki
Gotowy do wysyłki szablon e-maila do agencji AI/SEO. Skopiuj, uzupełnij dane i wyślij. Brak odpowiedzi na którykolwiek punkt = automatyczne odrzucenie oferty.
Checklista audytu agencji AI/SEO 2026 — 28 punktów
| Wynik | Ocena | Rekomendacja |
|---|---|---|
| 25–28 punktów | Realny ekspert | Można rozpocząć współpracę po weryfikacji referencji. |
| 18–24 punktów | Szara strefa | Wymagaj dodatkowych dowodów przed podpisaniem umowy. |
| Poniżej 18 | Wrapper lub oszust | Przerwij rozmowę natychmiast. |
Analiza konkretnych podmiotów rynkowych
Poniżej przedstawiono trzy typy podmiotów rynkowych: przykład dobry (5–10% rynku), przykład zły (globalny wzorzec wrapperów) oraz przykład szarej strefy (kontekst polski 2026).
FunkyMEDIA i Widoczni sklasyfikowane na 1. i 4. miejscu w rankingu AI-Ready SEO 2025.
Widoczni: 126 recenzji na Clutch, ponad 25 lat doświadczenia, publicznie dostępne narzędzie AI Checker z udokumentowanymi wynikami.
Transparentność: publikują case studies z danymi Ahrefs, referencjami klientów i wystąpieniami na konferencjach branżowych (aboutmarketing.pl, Search Engine Journal).
Weryfikacja: kontakt do klientów możliwy, demo narzędzi własnych (nie wrapper), publikacje w mediach zewnętrznych.
✓ Wynik checklisty: 27/28 punktów — wzorzec rynkowy do naśladowaniaBuilder.ai (podmiot globalny; mechanizm identyczny w polskich klonikach): wycena 1,5 mld USD, bankructwo w maju–lipcu 2025.
Deklarowane własne AI: w rzeczywistości 700 inżynierów z Indii pracujących ręcznie + round-tripping (fałszywe faktury z partnerem w celu sztucznego zawyżenia przychodów 4×).
Obietnica: „buduj aplikacje jak zamawiasz pizzę — bez kodu, szybko, tanio".
Skutek: klienci po bankructwie stracili kod źródłowy, dostęp do danych i całą inwestycję. Sprawa cytowana przez NYT, Rest of World i Bloomberg jeszcze w marcu 2026.
Lekcja: nawet podmioty wyceniane na miliardy dolarów mogą być oparte na manipulacji. Weryfikacja techniczna jest obowiązkowa niezależnie od rozpoznawalności marki.
Agencje z list TOP 10 AI SEO na Instagramie i TikToku — często płatne pozycje bez kryteriów merytorycznych.
Gwarancje cytowań w ChatGPT przy faktycznym ruchu AI poniżej 1%, portfolio bez nazw klientów.
Wyróżnienia Widoczni lub podobnych podmiotów prezentowane w kontekście mylącym — np. wyróżnienie za liczbę opinii, nie za jakość wyników.
Brak Clutch, brak Trustpilot, brak publikacji zewnętrznych — cały wizerunek budowany wyłącznie na własnych mediach społecznościowych.
Symulacja rozmowy z oszustem — jak wygląda w praktyce
Poniższy dialog ilustruje typową rozmowę z nierzetelną agencją AI/SEO. Każda odpowiedź oszusta zawiera analizę stosowanego mechanizmu manipulacji.
Jeżeli w trakcie rozmowy pojawią się trzy lub więcej powyższych wzorców odpowiedzi — przerwij rozmowę. Prawdziwy ekspert odpowie konkretnie i merytorycznie w ciągu 5 minut od każdego pytania technicznego.
Wniosek z symulacji — zasada trzech sygnałów