
Son zamanlarda günümün çoğunu Cursor'da Claude Code'u çalıştırarak geçiriyorum. Ben bir geliştirici değilim. Dijital pazarlama ajansı işletiyorum. Ancak Cursor'daki Claude Kodu, benim için, veri çekme ve analiz etme dahil, yapmak istediğim birçok görevi yerine getirmenin en hızlı yolu haline geldi.Google Arama KonsoluNo mess 'all." ifadesinde kullanıldığında, "Her şeyi temizledim. GA4ve Google Ads.
Kurulum yaklaşık bir saat sürer. Bundan sonra, “zaten organik olarak sıralandığım hangi anahtar kelimeler için para ödüyorum?” gibi şeyler sorabilirsiniz. ve öğleden sonranızı e-tablolarla harcamak yerine saniyeler içinde yanıt alın. (Zaten öğleden sonrasını e-tablolarla geçiren kişi ben olmazdım, ama artık kimsenin buna ihtiyacı yok.)
Ajans müşterilerimiz için verileri analiz ederken geliştirdiğim adım adım süreci burada bulabilirsiniz. Bu çok teknik görünüyorsa, bu makalenin URL'sini Claude'a yapıştırın ve ondan size adım adım yol göstermesini isteyin.
Ne inşa ediyorsun
Sonunda, Claude Code'un Google API'lerinizden canlı verileri çeken Python komut dosyalarına erişebildiği bir proje dizini elde edersiniz. Veriyi getiriyorsunuz, JSON dosyalarına giriyor ve sonra onunla konuşuyorsunuz.
Oluşturulacak kontrol paneli yok. Korunması gereken Looker Studio şablonu yok. Temel olarak Claude Code'a ekibinizin bakacağı verilerin aynısını veriyorsunuz ve çapraz referanslamayı onun yapmasına izin veriyorsunuz.
seo-proje/
├── config.json # İstemci ayrıntıları + API özellik kimlikleri
├── getiriciler/
│ ├── fetch_gsc.py # Google Arama Konsolu
│ ├── fetch_ga4.py # Google Analytics 4
│ ├── fetch_ads.py # Google Ads arama terimi
│ └── fetch_ai_visibility.py # AI Arama verileri
├── veri/
│ ├── gsc/ # Sorgu + sayfa performansı
│ ├── ga4/ # Kanala göre trafik, üst sayfalar
│ ├── reklamlar/ # Arama terimleri, harcama, dönüşümler
│ └── ai-visibility/ # AI alıntı verileri
└── raporlar/ # Oluşturulan analiz
1. Adım: Google API kimlik doğrulamasını ayarlayın
Her şey bir Google Cloud hizmet hesabı üzerinden yürütülür. Bir hizmet hesabı hem GSC'yi hem de GA4'ü kapsıyor ve bu güzel bir şey. Google Ads'in kendi OAuth kurulumuna ihtiyacı vardır; bu daha az hoş ancak yönetilebilir bir yöntemdir.
Hizmet hesabı (GSC + GA4 için)
- Google Cloud Console'da bir proje oluşturun.
- Search Console API'sini ve Google Analytics Veri API'sini etkinleştirin.
- altında bir hizmet hesabı oluşturunIAM ve Yönetici > Hizmet Hesapları.
- JSON anahtar dosyasını indirin.
- Hizmet hesabı e-postasını GSC mülkünüze kullanıcı olarak ekleyin (okuma erişimi yeterlidir).
- GA4 mülkünüze Görüntüleyici olarak ekleyin.
Hizmet hesabı e-postası, projeniz@projeniz-kimliğiniz.iam.gserviceaccount.com gibi görünür. Bu e-posta adresini, herhangi bir ekip üyesini eklediğiniz gibi her müşterinin GSC ve GA4 mülklerine ekleyeceksiniz.
Ajanslar için: Tek bir hizmet hesabı tüm müşterilerde çalışır. Bunu her bir özelliğe ekleyin, bir yapılandırma dosyasını özellik kimlikleriyle güncelleyin ve hazırsınız.
Google Ads kimlik doğrulaması
Google Ads farklıdır. İhtiyacınız var:
- Google Ads API Merkezi'nden bir geliştirici jetonu (altındaAraçlar ve Ayarlar > Kurulum > API Merkezi).
- Google Cloud'dan alınan OAuth 2.0 kimlik bilgileri (hizmet hesabı değil, ayrı bir OAuth istemcisi).
- Yenileme belirteci oluşturmak için tek seferlik tarayıcı kimlik doğrulaması.
Geliştirici belirteci bir uygulama gerektirir. Ajans kullanımı için bunu "pazarlama müşterileri için otomatik raporlama" olarak tanımlayın. Onay genellikle 24-48 saat sürer.
Yönetici Hesabı (MM) kullanıyorsanız bir geliştirici jetonu ve bir yenileme jetonu tüm alt hesapları kapsar. Müşteri başına müşteri kimliğini değiştirmeniz yeterlidir.
API erişiminiz veya MM'niz yoksa (belki de yeni bir istemcidir ve hâlâ kurulum aşamasındasınızdır) API'yi tamamen atlayabilirsiniz. Google Ads kullanıcı arayüzünden 90 günlük anahtar kelime ve arama terimi verilerini CSV olarak indirin, bunları veri dizininize bırakın; Claude Code bunlarla da çalışacaktır. Henüz MM'mize dahil olmayan müşterilerimizle bu şekilde ilgileniyoruz.
Python bağımlılıklarını yükleyin
Aşağıdaki örneklerin tümü, bir Mac veya Linux makinesindeki terminalde çalıştığınızı varsayar. Windows kullanıyorsanız en kolay yol Linux için Windows Alt Sistemidir (WSL).
pip install google-api-python-client google-auth google-analytics-veri google-ads
2. Adım: Veri toplayıcıları oluşturun
Her alıcı, kimlik doğrulaması yapan, verileri çeken ve JSON'u kaydeden kısa bir Python betiğidir. Bunları sıfırdan yazmadım. Claude Code'a ne istediğimi anlattım ve o da bunları yazdı.
Beni gerçekten şaşırtan bir şey vardı: API belgelerini okumak zorunda kalmadım. GSC, GA4 veya Google Ads için değil.
"Son 90 günde Search Console'dan en sık yapılan 1000 sorguyu almak istiyorum" gibi bir şey söylersem Claude Code kimlik doğrulamayı, uç noktaları ve sorgu parametrelerini çözer. Bu API'leri zaten biliyor. Siz sadece hangi verileri istediğinizi söyleyin.
İşte senaryolar neye benziyor?
Google Arama Konsolu alıcısı
google.oauth2'den service_account'u içe aktarın
googleapiclient.discovery içe aktarma derlemesinden
KAPSAMLAR = ['https://www.googleapis.com/auth/webmasters.readonly']
def get_gsc_service():
kimlik bilgileri = service_account.Credentials.from_service_account_file(
'hizmet-hesabı-anahtarı.json', kapsamlar=SCOPES
)
return build('searchconsole', 'v1', kimlik bilgileri=kimlik bilgileri)
def fetch_queries(hizmet, site_url, başlangıç_tarihi, bitiş_tarihi):
yanıt = service.searchanalytics().query(
siteUrl=site_url,
vücut={
'başlangıçTarihi': başlangıç_tarihi,
'bitişTarihi': bitiş_tarihi,
'boyutlar': ['sorgu'],
'satır Sınırı': 1000
}
).yürüt()
return Response.get('satırlar', [])
Tıklamalar, gösterimler, TO ve ortalama konumla birlikte sorguları geri alırsınız. JSON olarak kaydedin.
GA4 alıcısı
google.analytics.data_v1beta'dan BetaAnalyticsDataClient'ı içe aktarın
google.analytics.data_v1beta.types içe aktarımından (
RunReportRequest, DateRange, Metrik, Boyut
)
def get_ga4_client():
kimlik bilgileri = service_account.Credentials.from_service_account_file(
'hizmet-hesabı-anahtarı.json',
kapsamlar=['https://www.googleapis.com/auth/analytics.readonly']
)
BetaAnalyticsDataClient'i döndür(kimlik bilgileri=kimlik bilgileri)
def fetch_traffic_by_channel(client, property_id, start_date, end_date):
istek = RunReportRequest(
özellik=f"özellikler/{özellik_id}",
date_ranges=[DateRange(başlangıç_tarihi=başlangıç_tarihi, bitiş_tarihi=bitiş_tarihi)],
boyutlar=[Dimension(name="sessionDefaultChannelGroup")],
ölçümler=[
Metrik(isim=oturumlar"),
Metrik(isim=toplamKullanıcı Sayısı"),
Metrik(name="bounceRate"),
]
)
return client.run_report(request)
Google Ads alıcısı
Google Ads, Google Ads Sorgu Dili (GAQL) adı verilen bir şeyi kullanır. Daha önce bir SQL sorgusu yazdıysanız, bu size tanıdık gelecektir. Henüz yapmadıysanız endişelenmeyin, Claude Code bunu sizin için yazacaktır:
google.ads.googleads.client'ten GoogleAdsClient'ı içe aktarın
istemci = GoogleAdsClient.load_from_storage("google-ads.yaml")
ga_service = client.get_service("GoogleAdsService")
sorgu = """
SEÇ
search_term_view.search_term,
ölçümler.gösterimler,
metrikler.tıklamalar,
metrics.cost_micros,
metrikler.dönüşümler
search_term_view'DAN
WHERE segments.date LAST_30_DAYS DURING
ORDER BY metrics.impressions DESC
"""
yanıt = ga_service.search(customer_id="1234567890", query=query)
Bu, Google Ads kullanıcı arayüzünden indireceğiniz Arama Terimleri raporuyla aynı verileri alır: gösterimler, tıklamalar, maliyet, dönüşümler, eşleme türü, kampanya ve reklam grubu.
3. Adım: İstemci yapılandırması oluşturun
İstemci başına bir JSON dosyası. Süslü bir şey yok, yalnızca mülk kimlikleri ve bazı bağlamlar:
{
"name": "Müşteri Adı",
"etki alanı": "example.com",
"gsc_property": "https://www.example.com/",
"ga4_property_id": "319491912",
"google_ads_customer_id": "9270739126",
"endüstri": "Yüksek Öğrenim",
"rakipler": [
"https://competitor1.com/",
"https://competitor2.com/"
]
}
4. Adım: Kaynaklar arası sorular sorun
Artık proje dizininizde GSC, GA4 ve Ads'den JSON dosyalarınız var. Claude Code bunların hepsini aynı anda okuyabilir ve normalde çok fazla sekme değiştirme ve DÜŞEYARA çalışması anlamına gelen soruları yanıtlayabilir.
Ücretli-organik boşluk analizi
Bulduğum en değerli soru:
- "GSC sorgu verilerini Google Ads arama terimleriyle karşılaştırın. Tıklamalar için para ödediğimiz ancak zaten güçlü organik konumlara sahip olduğumuz anahtar kelimeleri bulun. Ayrıca, organik görünürlüğü sıfır olan reklamlara harcama yaptığımız anahtar kelimeleri bulun. Bunlar içerik boşluklarıdır."
Bunu bir yüksek öğrenim müşterisi için çalıştırdığımda şunu belirledi:
- Boşa reklam harcamasına (gösterimler, sıfır tıklama) neden olan 2.742 arama terimi.
- Organiklerin zaten güçlü olduğu koşullarda ücretli harcamaları azaltmak için 351 fırsat.
- Ücretli 33 yüksek performanslı organik sorgu artabilir.
- Ücretli olan tek varlık olan (organik olmayan) 41 içerik boşluğu.
Bu analiz yaklaşık 90 saniye sürdü. Eşdeğer manuel işlem (GSC ve Ads'den CSV'leri indirmek, bunlar arasında DÜŞEYARA arama yapmak, çakışmaları kategorilere ayırmak) öğleden sonranın çoğunu alır.
Sorulmaya değer diğer sorular
GSC + GA4 + Reklam verilerini yükledikten sonra:
- "GSC'de en fazla gösterimi alan ancak TO'su düşük olan sayfalar hangileri? Aynı sayfalar için GA4'ten gelen trafik nedir?" (meta açıklama/başlık fırsatlarını tanımlar)
- "Reklam yayınlamadığımız, gösterime göre en iyi 20 organik sorgu hangileridir?" (ücretli amplifikasyon adayları)
- "GSC sorgularını konu kümesine göre gruplandırın ve bana hangi kümelerin en fazla gösterime ancak en düşük ortalama konuma sahip olduğunu gösterin." (içerik yatırım öncelikleri)
- "GA4'teki hangi sayfalarda hemen çıkma oranları yüksek ancak GSC konumları güçlü? Bunların içeriğinin iyileştirilmesi gerekebilir."
Claude Code, elektronik tablolarla bir insanın yapamayacağı hiçbir şeyi yapmıyor. Bunu saniyeler içinde yapıyor ve tüm analizi sıfırdan oluşturmanıza gerek kalmadan başka bir soruyla devam edebiliyorsunuz.
5. Adım: Yapay zeka görünürlük takibini ekleyin
Geleneksel SERP pozisyonları artık resmin tamamı değil. Google'ın Yapay Zeka Genel Bakışları, Yapay Zeka Modu, Yardımcı Pilot, ChatGPT ve Perplexity arasında yapay zeka sistemlerinin içeriğinizden alıntı yapıp yapmadığını bilmeniz gerekir.
Bu, özellikle potansiyel öğrencilerin yapay zeka arama araçlarında araştırmalarına giderek daha fazla başladıkları yüksek öğrenim gibi dikey alanlar için geçerlidir.
Bir izleme platformunuz varsa
Scrunch, Semrush'un AI Görünürlük araç seti veya Otterly.ai gibi araçlar, markanızın ChatGPT, Perplexity, Gemini, Google AI Genel Bakış ve Copilot'taki varlığını izleyecektir.
Verileri CSV veya JSON olarak dışa aktarın ve veri dizininize bırakın. Claude Code daha sonra AI alıntılarını GSC ve Ads verilerinize göre çapraz referanslayabilir.
Bunu kendi sitemiz için yaptığımda, GEO ile ilgili sorgularda aynı yapay zeka alıntıları için yarışan iki blog yazısı keşfettik.
Her ikisi de benzer amacı hedeflemesine rağmen biri diğerinden 12 kat daha fazla Copilot alıntısına sahipti. Bu, yalnızca geleneksel sıralama verilerine dayanarak vermeyeceğimiz bir birleştirme kararına yol açtı. Bu tür bir yapay zeka arama yamyamlığı, çoğu SEO ekibinin henüz kontrol etmediği bir şeydir.
Takip platformunuz yoksa
Başlamak için kurumsal bir araca ihtiyacınız yok. Yapay zeka arama verilerini doğrudan çekmenize olanak tanıyan çeşitli API'ler vardır ve maliyetler düşündüğünüzden daha düşüktür.
DataForSEO AI Genel Bakış API'si: En erişilebilir seçenek. Kullandıkça öde, sorgu başına yaklaşık 0,01 ABD dolarıdır ve minimum 50 ABD doları depozito ile. Bir anahtar kelime gönderirsiniz ve bu, hangi URL'lerin alıntılandığı da dahil olmak üzere Google SERP'lerden tam AI Genel Bakış içeriğini döndürür. Ayrıca LLM'lerin platformlar arasında markalara nasıl referans verdiğini izleyen ayrı bir LLM Mentions API'si de vardır.
# DataForSEO AI Genel Bakışı — basitleştirilmiş örnek
yük = [{
"anahtar kelime": "en iyi yüksek öğrenim pazarlama ajansları",
"konum_kodu": 2840, # ABD
"dil_kodu": "tr"
}]
yanıt = request.post(
"https://api.dataforseo.com/v3/serp/google/ai_overview/live/advanced",
başlıklar=auth_headers,
json=yük
)
# Döndürür: AI Genel Bakış metni, alıntı yapılan URL'ler, referanslar
SerpApi: 5.000 arama için ayda 75 ABD dolarından başlar. AI Genel Bakışları da dahil olmak üzere Google SERP'nin tamamı için yapılandırılmış JSON'u döndürür. İyi belgeler, Python istemci kitaplığı ve test için ücretsiz bir katman.
SearchAPI.io: SerpApi'ye benzer, ayda 40 dolardan başlıyor. Ayrıca, yapay zeka tarafından oluşturulan yanıtları alıntılarla birlikte yakalayan ayrı bir Google Yapay Zeka Modu API'si de sunar.
Parlak Veri SERP API'si: Kullandıkça öde 1.000 istek başına yaklaşık 1,80 ABD dolarından başlar. Yapay Zeka Genel Bakışlarını yakalama olasılığını artırmak için brd_ai_overview=2 değerini ayarlayın. Daha sıkı aracı entegrasyonu istiyorsanız bir MCP sunucusu da vardır.
Bing Web Yöneticisi Araçları: Ücretsizdir ve şu anda herhangi bir büyük platformda mevcut olan tek birinci taraf AI alıntı verileridir. Sayfa düzeyindeki veriler ve alıntıları tetikleyen "temel sorgular" ile içeriğinizin Copilot ve Bing AI yanıtlarında kaynak olarak ne sıklıkta göründüğünü gösterir. Henüz API yok (Microsoft bunun biriktirme listesinde olduğunu söylüyor), ancak CSV'leri dışa aktarabilirsiniz.
Kendin Yap: Doğrudan LLM API Çağrıları: Küçük ölçekli izleme için en ucuz yaklaşım. OpenAI, Anthropic ve Perplexity API'lerine tutarlı bir dizi istem gönderen ve ardından markadan bahsedilen yanıtları ayrıştıran bir Python betiği yazın. Perplexity'nin Sonar API'si burada özellikle kullanışlıdır çünkü yanıtlarda web alıntılarını içerir ve alıntı belirteçleri ücretsizdir. Toplam maliyet: Mütevazı bir bilgi istemi kitaplığı için ayda 20 doların altında.
Genel model:Google AI Genel Bakış verileri için bir SERP API seçin, Bing Web Yöneticisi Araçlarını kullanın (ücretsizdir) ve bütçe izin veriyorsa doğrudan LLM API çağrıları veya özel bir izleyici ile destekleyin.
Uygulamadaki iş akışı
Peki bu Salı sabahı gerçekte neye benziyor?
Kurmak:Müşteri başına bir kez, ~15 dakika
- Müşterinin GSC'sine ve GA4'üne hizmet hesabı e-postası ekleyin
- Google Ads müşteri kimliklerini alın (veya MM'de değillerse arama terimlerini dışa aktarın)
- Özellik kimlikleriyle bir config.json oluşturun
Aylık veri çekme:~5 dakika
python3 run_fetch.py --kaynaklar gsc,ga4,ads
Analiz (gerektiğinde):Proje dizininde Claude Code'u açın ve sorular sorun. Veriler ortada.
Çıktı:Claude Kodu bir fiyat düşürme raporu oluşturur. İstemciye yönelik bir şeye ihtiyacım olduğunda, bunu Google-docs-forge olarak adlandırdığım ayrı bir araç kullanarak Google Dokümanlar'a aktarıyorum. Markdown'ı düzgün biçimlendirilmiş bir Google Dokümanına dönüştürür, böylece çıktı bir terminalden gelmiş gibi görünmez.
Yeni bir müşteri için tüm süreç yaklaşık 35 dakika sürer: kurulum, getirme, analiz. Aylık yenilemeler, analiz süresi dahil yaklaşık 20 dakika sürer. Bunu, CSV'leri üç farklı platformdan indirme, e-tablolarda çapraz referans verme ve bulguları yazma şeklindeki manuel alternatifle karşılaştırın.
Bu neyin yerini almaz
Bunu abartmak istemiyorum. Claude Code, verilerinizi okuyor ve kaynaklar arasındaki kalıpları manuel olarak yapabileceğinizden daha hızlı buluyor. Bu kalıplarla ilgili ne yapacağınızı söylemiyor. Hala müşterinin işini, rekabet durumunu ve aslında neyi başarmaya çalıştığını anlayan birine ihtiyacınız var. Araç ilginç verileri bulur. Stratejist bununla ne yapılacağına karar verir.
Ayrıca size ne verdiğini doğrulamanız gerekir. Yüksek Lisans'lar halüsinasyon görebilir ve buna veri analizi de dahildir. Claude Code'un JSON dosyasıyla eşleşmeyen bir numarayı güvenle bildirdiğini gördüm. Nadirdir, ancak olur.
Çıktıya, yeni bir analistin çalışmasına davrandığınız gibi davranın: güvenin, ancak özellikle müşteriye herhangi bir şey gitmeden önce doğrulayın. Sayıları kaynak verilere göre noktasal olarak kontrol edin. Bir şey çok net veya çok dramatik görünüyorsa ham dosyaya bakın.
Ayrıca mevcut platformlarınızın yerini almaz. Geçmiş trend verilerine, otomatik uyarılara veya müşteriye yönelik bir kontrol paneline ihtiyacınız varsa yine de bir Semrush veya Ahrefs istersiniz. Bunun size sağladığı şey, birden fazla veri kaynağında anlık sorular sorabilmenizdir; bu platformların hiçbiri bunu kendi başına iyi bir şekilde başaramaz.
GEO/AI görünürlük izleme alanı ise henüz olgunlaşmamış durumda. Yapay zeka alıntı araçlarından elde edilen veriler yön açısından faydalıdır. Rüzgar çorabı, GPS değil. Google, AI Genel Bakışı veya AI Modu alıntı verilerini herhangi bir resmi API aracılığıyla yayınlamaz; dolayısıyla tüm üçüncü taraf araçlar yaklaşık değerlerdir. Bing'in Copilot verileri birinci taraf olduğundan en güvenilir verilerdir ancak yalnızca Microsoft ekosistemini kapsar.
GSC ile başlayın, gerisini katmanlayın
Buna bir şans vermek istiyorsanız:
- Yalnızca GSC ile başlayın.Bağlanması en kolay API'dir (hizmet hesabı, salt okunur erişim, ücretsiz). Son 90 güne ait sorgularınızı ve sayfalarınızı getirin. Claude Code'dan sorguları konuya göre gruplandırmasını, sayfa 2 sıralama fırsatlarını belirlemesini ve gösterimleri yüksek ancak TO'su düşük olan sayfaları bulmasını isteyin.
- GA4 saniyesini ekleyin.Aynı hizmet hesabı. Artık çapraz kaynaklarla ilgili sorular sorabilirsiniz: "Hangi sayfalar GSC'de iyi sıralamaya sahip ancak GA4'te hemen çıkma oranları yüksek?"
- Hazır olduğunuzda Google Ads'i ekleyin.OAuth kurulumu daha kapsamlıdır ancak ücretli-organik boşluk analizi tek başına bu çabayı haklı çıkarmaktadır.
- Yapay zeka görünürlüğündeki katman sonuncudur.Bing Web Yöneticisi Araçları (ücretsiz) ve AI Genel Bakış verileri için bir SERP API ile başlayın.
Her katman bir öncekinin üzerine inşa edilir. Değer elde etmek için dördüne de ihtiyacınız yok. GSC + GA4 kombinasyonu tek başına manuel olarak bulunması saatler süren bilgileri ortaya çıkarır.




