GEO/AEO & AI forrásválasztás

GEO/AEO Optimalizálás 2026: Mit citál az AI?

Milyen tartalmakat citálnak az AI-keresők (ChatGPT, Gemini, Perplexity)? Forrásválasztás, Schema.org, autoritás-jelek és a tartalomstratégia újragondolása.

15 mintázat
52 forrás

TL;DR

Az AI-keresők forrásválasztása nem PageRank-alapú — autoritás, struktúra és citálhatóság alapján működik. A Schema.org strukturált adat, a FAQ szekciók, a TL;DR blokkok és az evidence-based tartalom szignifikánsan növeli az AI-citálás esélyét. A hagyományos SEO-technikák (linképítés, kulcsszó-sűrűség) kevésbé hatékonyak.


Executive Brief

Az AI-keresők (ChatGPT, Gemini, Perplexity, Google AI Overviews) forrásválasztási logikáját vizsgáltuk 52 forrás alapján. A kutatás kérdése: hogyan válasszuk ki és optimalizáljuk a tartalmainkat úgy, hogy az AI-rendszerek citálják?

Fő mintázatok

Ami működik:

  • Schema.org markup — a strukturált adat az AI-keresők “nyelve”; FAQ, HowTo, Article, Person sémák
  • TL;DR és summary blokkok — az AI szó szerint idéz; ha van kész összefoglaló, azt használja
  • FAQ szekciók — kérdés-válasz formátum ideális az AI-keresők számára
  • Autoritás-jelek — szerzői profil, intézményi háttér, hivatkozások más autoritatív forrásokra
  • Evidence-based tartalom — állítások forrásokkal alátámasztva; az AI előnyben részesíti

Ami kevésbé működik:

  • Kulcsszó-sűrűség optimalizálás (az AI szemantikusan ért, nem kulcsszavakat keres)
  • Hagyományos linképítés (az AI nem PageRank-ot néz)
  • Clickbait címek (az AI az információs értéket nézi, nem a kattintást)
  • Thin content sok oldalon (az AI a mélységet értékeli, nem a mennyiséget)

Cross-LLM különbségek:

  • A ChatGPT, Gemini és Perplexity eltérő forrásválasztási logikával dolgozik
  • A Perplexity a legátláthatóbb (explicit forrásmegjelölés)
  • Az AI Overviews a Google keresési kontextusba ágyazottan működik
  • Ami mindegyiknél működik: struktúra, autoritás, evidence

Módszertan

  • Források: 52 (web: 34, akadémiai: 11, iparági riport: 7)
  • Kutatási körök: 5 (alap + 3 mélyítés + vakfolt audit)
  • Mintázatok: 15 azonosított, 11 támogatott, 3 vitatott, 1 jelölt
  • Vakfolt audit: vizsgálta a nem angol nyelvű AI-keresők forrásválasztását és a videó-tartalom citálhatóságát

Teljes kutatás

A teljes field report elérhető konzultáció keretében. Tudj meg többet a Gestalt Research Engine-ről →

Gestalt Research Engine

Ez a kutatás a GRE pipeline-nal készült: szisztematikus forrásgyűjtés, mintázat-felismerés (figure/background/noise), vakfolt audit, konvergencia-ellenőrzés. Tudj meg többet →

Saját kutatás kell?

A Gestalt Research Engine a te kérdésedre is tud dolgozni. Próba-kutatás 1 kérdéssel.

Próba-kutatás indítása