Site Hızı, Tarama Bütçesi ve AI: Teknik Performans AI Dizinlemeyi Nasıl Etkiler

Pleqo Ekibi
9 min read
Teknik SEO

AI Tarayıcılarının Dayattığı Performans Vergisi

Site hızı, Google'ın 2018'deki Hız Güncellemesini duyurmasından bu yana geleneksel SEO'da bir sıralama faktörüdür. Çoğu teknik SEO profesyoneli bunun için optimize etti, Core Web Vitals'ı ölçtü ve devam etti. Konu kapanmış hissettirdi: hızlı sayfalar daha iyi sıralanır, yavaş sayfalar daha kötü sıralanır ve "yeterince hızlı" eşiği iyi belgelenmişti.

AI tarayıcıları bu tartışmayı yeniden açtı. Ve riskleri artırdı.

Googlebot yavaş bir sayfayı taradığında, hafif bir sıralama cezasıyla yine de dizine ekleyebilir. GPTBot veya ClaudeBot yavaş bir sayfaya ulaştığında ise genellikle isteği tamamen terk eder. AI taramada "hafifçe cezalandırılmış" durumu yoktur. İçeriğiniz ya alınır ya da alınmaz. AI taramanın bu ikili doğası, performans hatalarını geleneksel aramada olduğundan çok daha ağır sonuçlara sahip kılar.

Bunun nedeni ekonomiktir. AI şirketleri modellerini oluşturmak ve sürdürmek için milyarlarca sayfayı tarar. Bir tarayıcının yavaş bir sunucuyu bekleyerek geçirdiği her saniye, başka bir siteyi taramak için harcayamadığı bir saniyedir. AI tarayıcıları verimlilik için tasarlanmıştır. Sıkı zaman aşımı eşikleri uygular, güvenilmez sunucular için tarama sıklığını düşürür ve kaynaklarını sürekli boşa harcayan alan adlarını kalıcı olarak önceliklendirmez.

Teknik performansınız artık yalnızca bir kullanıcı deneyimi metriği değildir. AI platformlarının içeriğinizi okumaya zahmet edip etmeyeceğini belirleyen bir erişim kontrol mekanizmasıdır.

Temel çıkarım: Geleneksel arama yavaş sayfaları düşük sıralamayla cezalandırır. AI tarayıcıları yavaş sayfaları tamamen atlar. Bahis ikilidir: içeriğiniz ya alınır ya da o AI platformunun dünyasında var olmaz.

Ayrıca bakın: AI Hazırlığı İçin Teknik SEO Denetimi: Sitenizin Geçmesi Gereken 38 Faktör


AI Botları İçin Tarama Bütçesi Nasıl Çalışır

Tarama bütçesi, çoğu SEO profesyonelinin Googlebot bağlamında anladığı bir kavramdır. Siteniz sınırlı bir tarayıcı ilgisi tahsisatı alır. Googlebot, sunucu yanıt verme hızınıza, içeriğinizin güncelliğine ve sayfalarınızın algılanan önemine göre kaç sayfa tarayacağını belirler.

AI tarayıcıları benzer şekilde çalışır, ama daha sıkı kısıtlamalarla.

Google, web'i yirmi yılı aşkın süredir tarıyor. Altyapısı olgun ve çoğu siteye cömert tarama bütçeleri tahsis ediyor. AI tarayıcıları daha yeni. Altyapıları hâlâ ölçekleniyor. Alan adı başına atadıkları tarama bütçesi daha küçük olma eğilimindedir ve boşa harcamanın cezaları daha ağırdır.

AI tarama bütçenizi tüketen şeyler:

Yönlendirme zincirleri. Tek bir 301 yönlendirmesi sorun değildir. 301'den 302'ye, 302'den 301'e, oradan son URL'ye giden bir zincir, tek bir sayfaya ulaşmak için üç istek harcar. Yönlendirme zincirlerini takip eden AI tarayıcıları bütçeyi içerik yerine navigasyona yakar.

Parametreli mükerrer URL'ler. Siteniz /products?sort=price&page=2&color=blue gibi URL'ler üretiyorsa, her parametre kombinasyonu tarayıcıya farklı bir sayfa gibi görünür. Uygun canonical etiketler veya URL parametre yönetimi olmadan AI tarayıcıları, neredeyse aynı düzinelerce sayfayı tarayarak bütçeyi boşa harcar.

Soft 404'ler. 200 durum kodu döndüren ama "sonuç bulunamadı" veya boş içerik görüntüleyen sayfalar, tarayıcıları işe yaramaz sayfaları almaya kandırır. Bu, en iyi içeriğinize gitmesi gereken bütçenin boşa harcanmasıdır.

Sunucu hataları. Aralıklı 500 veya 503 hataları yalnızca bireysel istekleri engellemez. İstikrarsızlık sinyali verir. AI tarayıcıları sık sunucu hatası döndüren alan adları için tarama sıklığını düşürür. Sunucu sağlığında kötü bir hafta, aylarca süren düşük tarama tahsisatına yol açabilir.

Şişkin sayfalar. 5MB JavaScript, optimize edilmemiş görseller ve satır içi CSS içeren sayfaların indirilmesi ve ayrıştırılması daha uzun sürer. Sonunda yüklenseler bile, yavaş aktarım süresi tarayıcı zaman bütçesi içinde daha az sayfanın sığması anlamına gelir.

Temel çıkarım: AI tarama bütçeleri, geleneksel aramada alıştığınızdan daha küçük ve daha az affedicidir. Her yönlendirme zinciri, mükerrer URL ve sunucu hatası, AI platformlarının gerçekten okumasını istediğiniz sayfalardan dikkat çalar.


Core Web Vitals ve AI Tarayıcıları: Örtüştükleri Noktalar

Core Web Vitals üç kullanıcı deneyimi boyutunu ölçer: Largest Contentful Paint (yükleme hızı), First Input Delay (etkileşim) ve Cumulative Layout Shift (görsel kararlılık). Google bunları geleneksel arama için sıralama sinyalleri olarak kullanır.

AI tarayıcıları sayfaları kullanıcıların deneyimlediği şekilde deneyimlemez. Görsellerin render olmasını beklemez. Düğmelere tıklamaz. Bir banner'ın yükleme sonrası 40 piksel kaymasını umursamaz. CLS ve FID gibi metrikler onlar için ilgisizdir.

Ancak örtüşmenin olduğu yer şurasıdır: Core Web Vitals sorunlarını düzelten altyapı iyileştirmeleri, AI tarama sorunlarını da düzeltir.

3 saniye yerine 200ms'de yanıt veren bir sunucu, hem LCP'yi hem de AI tarayıcı yanıt süresini iyileştirir. Sıkıştırılmış görseller hem kullanıcılar için sayfa boyutunu hem de botlar için indirme süresini azaltır. Verimli sunucu taraflı render, hem kullanıcılar için boş sayfa sorununu hem de tarayıcılar için boş içerik sorununu ortadan kaldırır.

Örtüşme sunucu katmanındadır, tarayıcı katmanında değil. Bu ortak temellere odaklanın:

Metrik Kullanıcıları Etkiler mi? AI Tarayıcılarını Etkiler mi? Neden
Sunucu yanıt süresi (TTFB) Evet Evet Her ikisi de hızlı sunucu yanıtlarına bağlıdır
Görsel dosya boyutu Evet Evet Her ikisi de tam sayfa yükünü indirir
JavaScript paket boyutu Evet Kısmen Tarayıcılar JS indirir ama çoğu çalıştırmaz
CSS render Evet Hayır Tarayıcılar görsel düzenleri render etmez
Cumulative Layout Shift Evet Hayır Görsel kararlılık botlar için ilgisizdir
First Input Delay Evet Hayır Botlar sayfa öğeleriyle etkileşime girmez
Toplam sayfa ağırlığı Evet Evet Her ikisi için de aktarım süresini etkiler

Core Web Vitals için zaten optimize ettiyseniz, AI tarayıcı performansı için gereken işin yaklaşık %60'ını yapmış olursunuz. Kalan %40, Core Web Vitals'ın ölçmediği sunucu taraflı optimizasyonları içerir: yönlendirme zincirlerini azaltmak, aralıklı sunucu hatalarını düzeltmek ve taramaya özgü yanıt kodlarını yönetmek.

Temel çıkarım: Core Web Vitals optimizasyonu ve AI tarayıcı optimizasyonu aynı sunucu taraflı temeli paylaşır. TTFB'nizi düzeltin, varlıklarınızı sıkıştırın ve sayfa ağırlığını azaltın. Bu iyileştirmeler her iki kitleye de hizmet eder.


JavaScript Render Sorunu

JavaScript ağırlıklı siteler AI tarayıcıları için belirli bir zorluk sunar. Sorun basittir: birçok AI tarayıcısı JavaScript çalıştırmaz. HTML'nizi getirir, bulduklarını ayrıştırır ve devam eder. İçeriğiniz yalnızca JavaScript bir tarayıcıda çalıştıktan sonra görünüyorsa, tarayıcı boş veya eksik bir sayfa görür.

Bu sorun, istemci taraflı render'a dayanan React, Angular veya Vue gibi framework'lerle oluşturulan tek sayfa uygulamalarını etkiler. Sunucunun gönderdiği HTML belgesi neredeyse boş bir gövde ve bir JavaScript paketi içerir. İçerik yalnızca tarayıcı o JavaScript'i indirdikten, ayrıştırdıktan ve çalıştırdıktan sonra oluşur. İnsan kullanıcı son sayfayı görür. AI tarayıcısı bir kabuk görür.

Google bunu yıllar önce render hizmetiyle çözdü. Googlebot JavaScript çalıştırabilir ve son sayfa durumunu dizine ekleyebilir. AI tarayıcıları genel olarak aynı render altyapısına yatırım yapmamıştır. Hız ve hacim için optimize edilmişlerdir, JavaScript'in bir sayfa oluşturmasını beklemek için değil.

Düzeltme teknoloji yığınınıza bağlıdır:

Sunucu taraflı render (SSR). Sayfayı istemciye göndermeden önce sunucuda tam olarak render edin. HTML belgesi ulaştığında tüm içeriği içerir. Tarayıcılar JavaScript çalıştırmadan her şeyi görür. Next.js, Nuxt ve SvelteKit bunu kutudan destekler.

Statik site oluşturma (SSG). Sayfaları dağıtım zamanında önceden oluşturun. HTML dosyaları eksiksiz ve sunulmaya hazırdır. En hızlı yanıt süreleri. Sıfır render gereksinimi. Sık değişmeyen içerikler için iyi çalışır: blog yazıları, dokümantasyon, açılış sayfaları.

Hibrit render. Taranması gereken içerik ağırlıklı sayfalar için SSR veya SSG, taranması gerekmeyen interaktif gösterge paneli sayfaları için istemci taraflı render kullanın. Modern framework'lerin çoğu, rota bazlı render stratejilerini destekler.

Ön render hizmetleri. SSR'a geçiş şu anda yapılabilir değilse, ön render hizmetleri özellikle tarayıcılara sunulan statik HTML anlık görüntüleri üretir. Altyapı karmaşıklığı eklediği ve içerik uyumsuzlukları yaratabileceği için ideal değildir. Ama uygun bir geçiş planlarken geçici çözüm olarak işe yarar.

Test basittir. Tarayıcınızda JavaScript'i devre dışı bırakın ve anahtar sayfalarınızı ziyaret edin. İçerik kayboluyorsa, AI tarayıcıları da göremiyordur.

Temel çıkarım: Birçok AI tarayıcısı JavaScript çalıştırmaz. İçeriğiniz görünmek için istemci taraflı render gerektiriyorsa bu tarayıcılara görünmezdir. Sunucu taraflı render en güvenilir çözümdür.


AI Tarayıcıları İçin CDN ve Önbellek Stratejisi

Bir İçerik Dağıtım Ağı, AI tarayıcı performansını iki şekilde iyileştirir: daha hızlı yanıt süreleri ve daha düşük kaynak sunucu yükü.

AI tarayıcıları isteklerini dünyanın dört bir yanına dağılmış kullanıcı cihazlarından değil, veri merkezlerinden gönderir. Ancak CDN kenar önbellekleme yine de yardımcı olur çünkü kaynak sunucunuza gidiş-dönüşü ortadan kaldırır. Bir kenar düğümünden önbelleğe alınmış yanıt 20-50ms sürer. Kaynak sunucunuza ulaşan önbelleksiz bir yanıt 200-800ms sürebilir. Tarama ölçeğinde bu fark, tarayıcı zaman bütçesi içinde sayfalarınızın ne kadarının alınacağını belirler.

Tarayıcılar İçin Önbellek Yapılandırması

Hem kullanıcılar hem de botlar için çalışan önbellek başlıkları ayarlayın:

Statik varlıklar (görseller, CSS, JS). Uzun önbellek TTL, bir yıl standarttır. Önbellek yenileme için parmak izli dosya adları kullanın. Bunlar her zaman önbellekten sunulmalıdır.

İçerik sayfaları (blog yazıları, ürün sayfaları). Orta önbellek TTL, 1 ila 24 saat arası, stale-while-revalidate ile. Bu, tarayıcıların hızlı yanıtlar almasını sağlarken içeriğin makul ölçüde güncel kalmasını sağlar.

Dinamik sayfalar (arama sonuçları, filtrelenmiş görünümler). Kısa önbellek TTL veya önbellek yok. Ama kendinize bu sayfaların taranması gerekip gerekmediğini sorun. Gerekmiyorsa, robots.txt'de engelleyin ve tarama bütçenizi önemli sayfalar için saklayın.

Kenar Taraflı Tarayıcı Tespiti

Bazı CDN sağlayıcıları kenar noktasında mantık çalıştırmanıza izin verir. AI tarayıcı user-agent'larını tespit edebilir ve optimize edilmiş yanıtlar sunabilirsiniz -- örneğin istemci taraflı render yerine önceden render edilmiş HTML. Bu cloaking (saklama) değildir. Tarayıcının ayrıştırabileceği bir formatta aynı içeriği sunmaktır.

Ayrım önemlidir. JavaScript çalıştıramayan bir tarayıcıya aynı sayfanın önceden render edilmiş sürümünü sunmak erişilebilirliktir. Tamamen farklı içerik sunmak web yöneticisi kurallarını ihlal eder. İçeriği aynı tutun; yalnızca teslim formatını değiştirin.

Temel çıkarım: Uygun önbellek başlıklarına sahip bir CDN, AI tarayıcıları için yanıt sürelerini azaltır ve kaynak sunucunuzu tarama kaynaklı yük artışlarından korur. Sayfa türüne göre önbellek TTL'lerini yapılandırın ve JavaScript bağımlı sayfalar için kenar taraflı render'ı değerlendirin.


AI Taraması İçin Görsel Optimizasyonu

Görseller AI tarayıcı performansını birçok site sahibini şaşırtan bir şekilde etkiler. AI tarayıcıları görselleri indirir veya en azından indirmeye çalışır. Optimize edilmemiş 2MB'lık on görsel içeren bir sayfa, tarayıcının sayfayı işlemeyi bitirmeden önce 20MB indirmesi gerektiği anlamına gelir. Yüzlerce sayfalık bir sitede bu hızla birikir.

AI tarayıcılarının çoğu görsellerin kendisiyle değil metin içeriğiyle ilgilenir. Ama yine de görseller dahil tam sayfa yükünü indirir çünkü görseller HTML'e gömülüdür. Bir tarayıcı sayfanın hangi parçalarının indirilmeye değer olduğunu zaten indirmeden bilemez.

Pratik Görsel Optimizasyonları

Modern formatlar kullanın. WebP ve AVIF, eşdeğer kalitede JPEG'den %25-50 daha küçük sıkıştırma yapar. Daha küçük dosyalar tarayıcılar dahil herkes için daha hızlı indirme demektir.

Tembel yükleme konusunda dikkatli olun. Tembel yükleme, görsellerin kullanıcı kaydırana kadar yüklenmesini engeller. AI tarayıcıları kaydırmaz. Görselleriniz tembel yükleme nitelikleri kullanıyorsa ve tarayıcı kaydırma olayını tetiklemezse, görseller ilk HTML yükünde asla yüklenmeyebilir. Sunucu taraflı render edilmiş HTML'nizin doğrudan görsel URL'lerini içerdiğinden emin olun ve tembel yüklemeyi yalnızca istemci taraflı iyileştirme olarak uygulayın.

Agresif sıkıştırma yapın. İçerik sayfalarındaki görsellerin çoğunun 4000 piksel genişliğinde olması gerekmez. Maksimum görüntüleme boyutuna yeniden boyutlandırın, %80-85 kaliteye sıkıştırın ve EXIF meta verilerini temizleyin. Görsel fark önemsizdir. Dosya boyutu farkı dramatik olabilir.

Açıklayıcı alt metin yazın. Sıkı anlamda bir performans optimizasyonu olmasa da, alt metin AI tarayıcılarının bir görseli görsel olarak işlemeden neyi tasvir ettiğini anlamasına yardımcı olur. İyi yazılmış bir alt nitelik, tarayıcıya sıfır performans maliyetinde faydalı bağlam verir.

Duyarlı görseller şunun. srcset niteliği, istek yapan istemciye göre farklı görsel boyutları sunmanıza olanak tanır. Bazı yapılandırmalar tarayıcılara daha küçük görseller sunar, kullanıcı deneyimini etkilemeden sayfa ağırlığını azaltır.

Temel çıkarım: Optimize edilmemiş görseller sayfa yükünüzü şişirir ve AI tarayıcılarını yavaşlatır. Modern formatlar kullanın, agresif sıkıştırma yapın ve kritik görsellerin JavaScript çalıştırılmadan erişilebilir olduğundan emin olun.


AI Tarama Performansını Ölçme

Ölçmediğinizi düzeltemezsiniz. AI tarayıcılarının sitenizle nasıl etkileşime girdiğini takip etmek, üç veri kaynağını izlemeyi gerektirir: sunucu logları, CDN analitiği ve taramaya özel araçlar.

Sunucu Log Analizi

Sunucu erişim loglarınız her isteği, user-agent string'i dahil kaydeder. AI tarayıcıları kendilerini belirli user-agent'larla tanımlar:

Tarayıcı User-Agent İçeriği Operatör
GPTBot GPTBot OpenAI
ClaudeBot ClaudeBot Anthropic
PerplexityBot PerplexityBot Perplexity
Google-Extended Google-Extended Google (AI eğitimi)
Googlebot Googlebot Google (arama + AI Overviews)
Bytespider Bytespider ByteDance

Loglarınızı bu user-agent'lara göre filtreleyin ve şunları takip edin:

  • Günlük istek hacmi. Her tarayıcı sitenizi ne sıklıkla ziyaret ediyor?
  • İstek başına yanıt süresi. Sayfalarınız kabul edilebilir eşikler içinde yanıt veriyor mu?
  • HTTP durum kodu dağılımı. İsteklerin yüzde kaçı 200, 301, 404 veya 500 döndürüyor?
  • Oturum başına taranan sayfalar. Tarayıcı önemli içeriğinize ulaşıyor mu, yoksa düşük değerli URL'lerde mi takılıyor?

CDN Analitiği

Çoğu CDN sağlayıcısı, hangi tarayıcıların sitenize ulaştığını, istek hacimlerini, hata oranlarını ve önbellek isabet oranlarını gösteren bot trafik gösterge panelleri sunar. AI tarayıcıları için yüksek önbellek isabet oranı hızlı kenar yanıtları anlamına gelir. Düşük oran, isteklerin daha yavaş ve daha kaynak yoğun olan kaynak sunucunuza düştüğü anlamına gelir.

Tarama Bütçesi Verimlilik Skoru

Basit bir verimlilik metriği hesaplayın: taranan önemli sayfalarınızın sayısını toplam taranan sayfaların sayısına bölün. AI tarayıcıları sitenizde 500 sayfaya ulaşıyor ama yalnızca 50'si gerçekten alınmasını istediğiniz sayfalarysa, tarama verimliliğiniz %10'dur. Bu bir sorundur. Hedef, robots.txt'de düşük değerli sayfaları engelleyerek, yönlendirme zincirlerini düzelterek ve tarayıcıları en iyi içeriğinize yönlendirmek için dahili bağlantıyı iyileştirerek verimliliği %70'in üzerine çıkarmaktır.

Temel çıkarım: Sunucu loglarınızda ve CDN analitiğinizde AI tarayıcı etkinliğini izleyin. Yanıt sürelerini, hata oranlarını ve hangi sayfaların tarandığını takip edin. Tarayıcılar bütçelerini düşük değerli sayfalara harcıyorsa, sitenizi onları önemli içeriğe yönlendirecek şekilde yeniden yapılandırın.


AI Tarama Performansı İçin Beş Hızlı Kazanım

Bu hafta AI tarama performansında ölçülebilir iyileşme istiyorsanız buradan başlayın. Bu değişikliklerin her biri bir günden kısa sürede yapılabilir. Birleşik etki, tarayıcılar sitenizi yeniden işledikçe 2-4 hafta içinde görünür olmalıdır.

1. Yönlendirme Zincirlerinizi Düzeltin

Sitenizdeki her URL'yi bir sekmeden uzun yönlendirme zincirleri için denetleyin. Tarama aracı kullanarak tüm yönlendirmeleri haritalayın ve zincirleri doğrudan son hedefe işaret eden tek bir 301 yönlendirmesine birleştirin. Bu tek başına, eski URL yapılarına sahip sitelerde boşa harcanan tarama bütçesinin %10-20'sini geri kazandırabilir.

2. İçerik Sayfalarına Önbellek Başlıkları Ekleyin

İçerik sayfalarınız cache-control başlıklarından yoksunsa ekleyin. Blog yazıları ve ürün sayfalarında bir saatlik max-age ile 24 saatlik stale-while-revalidate penceresiyle genel önbellekleme ayarlamak, CDN önbelleklemeyi sağlar ve tarama artışları sırasında kaynak sunucu yükünü azaltır.

3. Görsellerinizi Sıkıştırın

Sitenizdeki her görseli bir sıkıştırma hattından geçirin. Desteklenen yerlerde WebP'ye dönüştürün, gerçek görüntüleme boyutlarına yeniden boyutlandırın ve %80-85 kaliteyi hedefleyin. Çoğu site, görünür kalite kaybı olmadan toplam görsel yükünü %40-60 azaltabilir.

4. robots.txt'de Düşük Değerli URL'leri Engelleyin

İnce veya mükerrer içerik üreten URL kalıplarını belirleyin: dahili arama sonucu sayfaları, filtrelenmiş ürün listeleri, benzersiz içeriği olmayan etiket arşivleri. Bunları robots.txt dosyanızda hedefli user-agent kurallarıyla AI tarayıcıları için engelleyin. Bu, tarama bütçesini alınmaya değer sayfalara odaklar.

5. Sunucu Yanıt Sürenizi Yük Altında Test Edin

Farklı sayfalara ulaşan birden fazla eşzamanlı istekle tarama düzeyinde trafiği simüle eden bir yük testi çalıştırın. Time To First Byte değeriniz yük altında 500ms'yi aşıyorsa, daha iyi barındırma, önbellekleme veya uygulama düzeyinde optimizasyona ihtiyacınız vardır. AI tarayıcıları yavaş bir sunucuyu beklemez ve genellikle aynı anda birden fazla istek gönderir.

Temel çıkarım: Yönlendirme zincirleri, önbellek başlıkları, görsel sıkıştırma, robots.txt temizliği ve sunucu yanıt süresi. Beş değişiklik, minimum maliyet, AI tarayıcılarının içeriğinizden ne kadarını aldığına doğrudan etki.


Hız Erişimdir

On yıl önce site hızı bir sıralama faktörüydü. Doğru yaparsanız birkaç pozisyon yukarı taşıyan bir artı. Bugün, AI tarayıcıları için hız erişimdir. Yavaş bir site AI yanıtlarında daha düşük sıralamaz. Hiç görünmez.

Matematik affetmez. AI tarayıcıları milyarlarca sayfayı ziyaret eder. Sınırlı zaman ve hesaplama bütçeleri vardır. 200ms'de yanıt veren bir site kapsamlı şekilde taranır. 3 saniyede yanıt veren bir site en iyi ihtimalle örneklenir. Zaman aşımı hatası döndüren bir site rotasyondan çıkarılır.

Bu makaledeki her teknik optimizasyon aynı amaca hizmet eder: içeriğinizi, AI tarafından üretilen yanıtlarda alıntılanıp alıntılanmayacağınıza karar veren sistemlere erişilebilir kılmak. Sunucu yanıt süresi, tarama bütçesi verimliliği, görsel sıkıştırma, JavaScript render, CDN önbellekleme. Bunlar soyut teknik kaygılar değildir. İçeriğiniz ile AI görünürlüğü arasındaki geçit kapısıdır.

Siteniz hızlı, iyi yapılandırılmış ve güvenilir şekilde erişilebilirse, AI tarayıcıları gerisini halleder. İçeriğinizi bulur, alır ve ilgili sorgular geldiğinde kullanılabilir hale getirir.

Siteniz yavaş, bozuk veya şişkinse, yalnızca içerik kalitesi sizi kurtarmaz. Tarayıcı onu okumaya yetecek kadar ileri gidememiştir.


AI tarayıcılarının içeriğinizle gerçekte nasıl etkileşime girdiğini görmek ister misiniz? Pleqo ile ücretsiz denemenizi başlatın ve ilk AI görünürlük raporunuzu 3 dakikadan kısa sürede alın. Kredi kartı gerekmez.

Sık Sorulan Sorular

Evet. AI tarayıcıları ölçekte çalışır ve yerleşik zaman aşımı eşiklerine sahiptir. Sunucunuz yanıt vermekte geç kalırsa tarayıcı devam eder ve sayfanız alınmaz. Çoğu AI tarayıcısı 5-10 saniyeyi aşan istekleri terk eder. Sürekli yavaş siteler, bot onları önceliklendirmemeyi öğrendikçe zamanla daha az taranır.

Tarama bütçesi, bir botun belirli bir süre içinde sitenizde tarayacağı sayfa sayısıdır. AI tarayıcıları bütçeyi site kalite sinyalleri, sunucu yanıt verme hızı ve içerik güncelliğine göre dağıtır. Siteniz tarama bütçesini yönlendirme zincirleri, mükerrer sayfalar veya yavaş yanıtlarla boşa harcarsa, önemli içerik sayfaları asla taranmayabilir.

Sunucu erişim loglarınızda GPTBot, ClaudeBot ve PerplexityBot gibi AI tarayıcı user-agent'larından gelen istekleri izleyin. HTTP durum kodlarını ve yanıt sürelerini kontrol edin. 408, 429, 500 ve 503 durum kodlarını arayın. Ayrıca CDN analitiklerinizi kontrol edin -- çoğu CDN trafiği bot türüne göre filtreleyebilir ve user-agent bazında hata oranlarını gösterebilir.

Kısmen. Core Web Vitals; Largest Contentful Paint, First Input Delay ve Cumulative Layout Shift gibi kullanıcı deneyimi metriklerine odaklanır. AI tarayıcıları sayfaları tarayıcıların yaptığı gibi render etmez, bu nedenle CLS gibi metrikler onlar için ilgisizdir. Ancak Core Web Vitals'ı iyileştiren altyapı optimizasyonları AI tarayıcı yanıt sürelerine de fayda sağlar.

CDN, içeriği tarayıcıya daha yakın kenar konumlarından sunarak sunucu yanıt süresini azaltır. AI tarayıcıları belirli bölgelerdeki veri merkezlerinden çalıştığından, bir CDN isteğin nereden geldiğinden bağımsız olarak hızlı yanıtlar sağlar. Kenar önbellekleme ayrıca yüksek frekanslı tarama dönemlerinde kaynak sunucunuzdaki yükü de azaltır.

Yazan

Pleqo Ekibi

Pleqo, işletmelerin 7 AI arama motorundaki görünürlüğünü izlemelerine, analiz etmelerine ve geliştirmelerine yardımcı olan AI marka görünürlük platformudur.

İlgili Makaleler

AI markanızdan nerede bahsediyor görün

ChatGPT, Perplexity, Gemini ve 4 AI platformunda görünürlüğünüzti takip edin.

7 Gün Ücretsiz Deneyin