Tehnički SEO

Tehnički SEO za AI agente: optimizacija sajta za generativnu pretragu 2026

Kako prilagoditi sajt AI agentima u 2026. Vodič za llms.txt, semantic HTML, structured data i GEO optimizaciju na srpskom tržištu.

Autor: SEO Srbija
Podeli: X Facebook LinkedIn
Tehnička ilustracija SEO optimizacije za AI agente sa mrežom povezanih čvorova i serverima

Google više nije jedini koji čita vaš sajt. ChatGPT, Claude, Perplexity i Gemini direktno pristupaju veb stranicama, izvlače sadržaj i citiraju ga u svojim odgovorima. Tehnički SEO u 2026. godini znači optimizaciju ne samo za klasične pretrage, već i za AI agente koji indeksiraju, razumeju i preporučuju vaš sadržaj.

U ovom vodiču objašnjavamo šta je generativna optimizacija pretrage (GEO), kako funkcioniše retrieval-augmented generation (RAG) u kontekstu vašeg sajta i koje konkretne tehničke korake možete preduzeti da AI agenti pravilno čitaju, razumeju i citiraju vaš sadržaj.

Šta su AI agenti i zašto im je vaš sajt važan

AI agenti su sistemi koji autonomno pretražuju internet, prikupljaju informacije i generišu odgovore za korisnike. Za razliku od klasičnih crawler-a poput Googlebot-a koji indeksiraju stranice za pretragu, AI agenti rade nešto složenije: oni čitaju vaš sadržaj, kompresuju ga u kontekst i koriste kao izvor za generisanje odgovora.

Evo kako to izgleda u praksi:

  • ChatGPT koristi OAI-SearchBot da pretražuje veb i CiteBrowse da citira izvore u odgovorima
  • Perplexity koristi sopstveni crawler koji indeksira stranice u realnom vremenu
  • Claude pristupa sadržaju kroz MCP (Model Context Protocol) i direktne zahteve
  • Gemini koristi Google-Extended i sopstvene sisteme za pristup sadržaju

Svaki od ovih agenata ima drugačiji način čitanja sadržaja, ali svi dele jednu potrebu: jasno strukturiran, lako dostupan i semantički bogat sadržaj. Ako vaš sajt ne ispunjava ove uslove, AI agenti će jednostavno koristiti konkurentski izvor.

Za dublje razumevanje kako AI pretraga funkcioniše, pogledajte naš članak o razlikama između GEO i klasičnog SEO-a.

llms.txt protokol: nova ulazna tačka za AI agente

Jedan od najvažnijih tehničkih standarda koji se pojavio u poslednjih godinu dana je llms.txt protokol. Ovaj fajl, smešten u korenu sajta (slično robots.txt-u), služi kao mapa sadržaja prilagođena AI agentima.

Kako llms.txt funkcioniše

Format je jednostavan: tekstualni fajl koji sadrži strukturiran pregled sajta sa linkovima ka najvažnijim stranicama. AI agenti ga čitaju pre nego što počnu da indeksiraju ostatak sajta, što im pomaže da brže pronađu relevantan sadržaj.

Tipična struktura llms.txt fajla izgleda ovako:

# Ime sajta
> Kratak opis sajta i čime se bavi

## Kategorije
- [Ime kategorije](URL): Opis šta sadrži

## Najvažniji članci
- [Naslov članka](URL): Kratak opis

Razlika između llms.txt i llms-full.txt

Postoje dve varijante ovog fajla:

  1. llms.txt sadrži indeks sa linkovima i kratkim opisima (obično 5-15 KB)
  2. llms-full.txt sadrži kompletan sadržaj u markdown formatu (može biti i preko 200 KB)

Prva varijanta služi za navigaciju, dok druga omogućava AI agentima da pročitaju celokupan sadržaj bez potrebe za dodatnim zahtevima.

Implementacija za srpske sajtove

Ako koristite Astro, Next.js ili bilo koji statički generator, implementacija je jednostavna. Kreirajte endpoint koji dinamički generiše llms.txt na osnovu vaših članaka. Na sajtu seo-srbija.rs koristimo upravo ovaj pristup: llms.txt se automatski generiše pri svakom buildu i uključuje sve objavljene članke sa opisima.

Za WordPress sajtove postoje pluginovi koji automatski generišu ovaj fajl. Ključno je da fajl bude dostupan na vasajt.rs/llms.txt i da sadrži ažuran pregled sadržaja.

Robots.txt u eri AI agenata: trening vs. pretraga

Jedna od najčešćih grešaka koju srpski webmasteri prave u 2026. je potpuno blokiranje AI botova u robots.txt. Problem je što postoji bitna razlika između botova koji koriste vaš sadržaj za trening modela i onih koji ga koriste za pretragu i citiranje.

Botovi za trening vs. botovi za pretragu

BotKompanijaSvrhaPreporuka
GPTBotOpenAITrening modelaBlokirajte ako ne želite da se sadržaj koristi za trening
OAI-SearchBotOpenAIPretraga i citiranjeDozvolite, donosi saobraćaj
Google-ExtendedGoogleTrening Gemini-jaBlokirajte po potrebi
GooglebotGoogleKlasično indeksiranjeObavezno dozvolite
PerplexityBotPerplexityPretraga i citiranjeDozvolite, donosi citacije
ClaudeBotAnthropicTrening i pristupOdlučite na osnovu strategije
BytespiderByteDanceTreningBlokirajte

Primer pravilne konfiguracije

# Dozvolite pretrage botove
User-agent: OAI-SearchBot
Allow: /

User-agent: PerplexityBot
Allow: /

User-agent: Googlebot
Allow: /

# Blokirajte trening botove
User-agent: GPTBot
Disallow: /

User-agent: Google-Extended
Disallow: /

User-agent: Bytespider
Disallow: /

# Uputite AI agente na llms.txt
Llms-txt: /llms.txt

Obratite pažnju na poslednji red: Llms-txt direktiva u robots.txt je novi standard koji usmerava AI agente ka vašem llms.txt fajlu. O tome kako Google tumači nedokumentovane crawlere možete pročitati u našem članku o Google nedokumentovanim crawlerima i robots.txt podešavanjima.

Semantic HTML i extractability: kako AI čita vaš sadržaj

AI agenti ne čitaju vaš sajt kao čovek. Oni parsiraju HTML strukturu, izvlače tekstualni sadržaj i pokušavaju da razumeju hijerarhiju informacija. Zato je semantički korektan HTML ključan za vidljivost u generativnoj pretrazi.

Fragment-ready sadržaj

AI sistemi zasnovani na RAG (retrieval-augmented generation) arhitekturi funkcionišu tako što dele vaš sadržaj na manje fragmente (chunks), indeksiraju ih i koriste relevantne delove kao kontekst za generisanje odgovora. Da bi ovaj proces funkcionisao, vaš sadržaj mora da bude “fragment-ready”, što znači:

  • Svaka sekcija ima jasan naslov (H2/H3) koji opisuje sadržaj ispod sebe
  • Pasusi su fokusirani na jednu ideju i ne prelaze 3-4 rečenice
  • Liste i tabele se koriste za strukturirane podatke
  • Definicije i ključni koncepti su jasno formulisani na početku pasusa

Dog-bone problem: AI bolje čita početak i kraj

Istraživanja pokazuju da AI modeli pri kompresiji konteksta najbolje zadržavaju informacije sa početka i kraja teksta, dok srednji deo često “ispada” iz konteksta. Ovo se naziva “dog-bone” problem (po obliku kosti za psa, gde su krajevi deblji od sredine).

Šta ovo znači za strukturu vaših članaka:

  1. Najvažnije informacije stavite na početak članka (prvi i drugi pasus)
  2. Ključne zaključke ponovite na kraju u formi sažetka
  3. Svaku sekciju započnite najbitnijim podatkom, ne uvodom
  4. Koristite bold za ključne fraze koje AI treba da zapamti

Detaljnije o ovom fenomenu pisali smo u članku zašto AI pogrešno čita sredinu stranice.

Semantic HTML elementi koji pomažu AI agentima

<article> <!-- Označava glavni sadržaj -->
  <header>
    <h1>Naslov članka</h1>
    <time datetime="2026-04-01">1. april 2026.</time>
  </header>
  
  <section>
    <h2>Podnaslov sekcije</h2>
    <p>Sadržaj sekcije...</p>
  </section>
  
  <aside> <!-- Sporedne informacije -->
    <h3>Povezano</h3>
  </aside>
  
  <footer> <!-- Metadata o autoru -->
    <address>Autor: SEO Srbija</address>
  </footer>
</article>

Korišćenjem semantičkih elemenata (article, section, aside, header, footer, nav, main) umesto generičkih div-ova, pomažete AI agentima da razumeju strukturu i hijerarhiju vašeg sadržaja. Više o tehničkim aspektima optimizacije sajta možete naći u našem vodiču za tehničku SEO automatizaciju.

Structured data za povezivanje entiteta

Strukturirani podaci (schema markup) su oduvek bili važni za SEO, ali u kontekstu generativne pretrage dobijaju novu dimenziju. AI agenti koriste JSON-LD podatke da razumeju ne samo šta je na stranici, već i kako se entiteti međusobno povezuju.

Najvažniji schema tipovi za AI vidljivost

1. Organization schema povezuje vaš sajt sa brendom:

{
  "@context": "https://schema.org",
  "@type": "Organization",
  "name": "Ime firme",
  "url": "https://vasajt.rs",
  "sameAs": [
    "https://www.linkedin.com/company/vasafirma",
    "https://twitter.com/vasafirma"
  ]
}

2. FAQPage schema je posebno značajna jer AI agenti vole format pitanje-odgovor:

{
  "@context": "https://schema.org",
  "@type": "FAQPage",
  "mainEntity": [{
    "@type": "Question",
    "name": "Šta je GEO optimizacija?",
    "acceptedAnswer": {
      "@type": "Answer",
      "text": "GEO (Generative Engine Optimization) je proces optimizacije..."
    }
  }]
}

3. Article schema sa SignificantLink pomaže AI agentima da razumeju koje su veze između vaših stranica najvažnije:

{
  "@context": "https://schema.org",
  "@type": "Article",
  "headline": "Naslov članka",
  "significantLink": [
    "https://vasajt.rs/povezan-clanak-1",
    "https://vasajt.rs/povezan-clanak-2"
  ]
}

4. HowTo schema je idealna za tutorijale i vodiče jer AI agenti mogu da izvuku korake direktno:

{
  "@context": "https://schema.org",
  "@type": "HowTo",
  "name": "Kako implementirati llms.txt",
  "step": [{
    "@type": "HowToStep",
    "name": "Kreiranje fajla",
    "text": "Napravite llms.txt u root direktorijumu sajta..."
  }]
}

Za kompletnu implementaciju schema markup-a na srpskim sajtovima, pogledajte naš vodič za schema markup i članak o rich snippets-ima i strukturiranim podacima.

Merenje uspeha: kako znate da AI agenti citiraju vaš sajt

Klasične SEO metrike (pozicija u pretrazi, organski saobraćaj, CTR) i dalje su važne, ali za generativnu pretragu potrebne su nove metrike. Evo šta treba pratiti:

Citation share

Citation share je procenat koliko često AI agenti citiraju vaš sajt u odnosu na konkurenciju za date ključne reči. Ovo je nova metrika koja nema direktan ekvivalent u klasičnom SEO-u.

Kako je meriti:

  • Koristite alate poput Perplexity-ja i ChatGPT-ja da pretražujete ključne reči iz vaše niše
  • Beležite koliko često se vaš sajt pojavljuje kao izvor
  • Pratite trend tokom vremena

Log file analiza

Server logovi su zlato za razumevanje kako AI agenti pristupaju vašem sajtu. Filtrirajte logove po user-agent stringovima AI botova:

# Primer za filtriranje AI botova iz access loga
grep -E "(OAI-SearchBot|PerplexityBot|ClaudeBot|ChatGPT)" access.log | \
  awk '{print $1, $7, $9}' | sort | uniq -c | sort -rn

Ova analiza vam pokazuje:

  • Koje stranice AI agenti najčešće posećuju
  • Da li pristupaju llms.txt fajlu
  • Koji HTTP status kodovi se vraćaju (4xx i 5xx su loši signali)
  • Koliko često se vraćaju

Zero-click referral praćenje

Čak i kad korisnici ne kliknu na link, AI agenti mogu citirati vaš sajt kao izvor. Pratite:

  • Referral saobraćaj iz chat.openai.com, perplexity.ai i sličnih domena
  • Brand search volume jer korisnici mogu pretražiti vaš brend nakon što ga vide u AI odgovoru
  • Direct traffic spikes koji se poklapaju sa viralnim AI odgovorima

Za detaljnije praćenje metrika pogledajte kako AI citacije utiču na organsku vidljivost i naš vodič za SEO ROI i Google Analytics.

Praktična checklista za srpske sajtove

Evo konkretnih koraka koje možete primeniti danas da pripremite sajt za AI agente:

Osnovno (uradite odmah)

  1. Kreirajte llms.txt fajl sa indeksom najvažnijih stranica
  2. Ažurirajte robots.txt da razlikuje trening botove od pretrage botova
  3. Proverite semantic HTML na ključnim stranicama (article, section, header)
  4. Dodajte Llms-txt direktivu u robots.txt

Srednji nivo (u narednih mesec dana)

  1. Implementirajte llms-full.txt sa kompletnim sadržajem
  2. Dodajte FAQPage schema na stranicama sa pitanjima i odgovorima
  3. Optimizujte strukturu sadržaja po dog-bone principu (ključne informacije na početak i kraj)
  4. Postavite monitoring AI bot poseta u server logovima

Napredno (za dugoročnu strategiju)

  1. Kreirajte SignificantLink mrežu između ključnih stranica
  2. Implementirajte HowTo schema za tutorijale i vodiče
  3. Pratite citation share za vaše ciljne ključne reči
  4. Testirajte extractability unošenjem URL-ova u AI agente i proverom kvaliteta izvučenog sadržaja

Ako tek počinjete sa SEO optimizacijom, preporučujemo da prvo pročitate naš vodič o strukturi sajta i navigaciji i SEO audit checklistu pre nego što se upustite u napredne tehnike.

Budućnost: šta očekivati do kraja 2026. godine

Generativna pretraga se menja brzo. Evo trendova koje treba pratiti:

MCP (Model Context Protocol) postaje standard za direktnu komunikaciju između AI agenata i sajtova. Umesto da AI crawluje vaš sajt, MCP omogućava strukturirani pristup podacima kroz API. To znači da ćete u budućnosti morati da implementirate MCP endpoint za svoj sajt, slično kao što danas imate RSS feed ili sitemap.

Kontekstualni prozor se širi pa AI modeli mogu da procesiraju više sadržaja odjednom. Međutim, dog-bone problem ostaje: čak i sa kontekstom od milion tokena, AI bolje procesira početke i krajeve.

Citation quality signali postaju sofisticiraniji. AI sistemi ne citiraju samo sajt koji je prvi u indeksu, već onaj koji ima najjasniju strukturu, najkvalitetniji sadržaj i najbolje strukturirane podatke.

Voice search i AI agenti se integrišu, pa optimizacija za razgovorni ton postaje sve važnija. AI agenti koji odgovaraju glasom preferiraju kratke, jasne rečenice sa konkretnim podacima.

Za uvid u šire promene koje dolaze, pogledajte naš članak o budućnosti Google algoritama u 2026 i kako se pojaviti u ChatGPT, Gemini i Perplexity rezultatima.

Zaključak

Tehnički SEO za AI agente nije zamena za klasičnu SEO optimizaciju. To je dodatni sloj koji vam obezbeđuje vidljivost u novom kanalu pretrage. AI agenti čitaju vaš sajt drugačije od ljudi i od klasičnih crawler-a. Oni traže strukturu, jasnoću i semantičko bogatstvo.

Tri stvari koje danas možete uraditi: implementirajte llms.txt, ažurirajte robots.txt da pravilno razlikuje trening i pretrage botove, i proverite da li je vaš sadržaj fragment-ready za RAG sisteme.

Srpsko tržište je u prednosti jer je konkurencija za GEO optimizaciju još uvek mala. Ko se prvi prilagodi, taj će dominirati u AI pretragama na srpskom jeziku. Vreme za akciju je sada.

Povezani članci