Google Search Console + Claude Code: Come Interrogo i Dati SEO in Linguaggio Naturale con il Protocollo MCP

La Search Console ha un problema strutturale. Mostra dati, ma non risponde a domande.
Chi lavora con Google Search Console ogni giorno lo sa: i dati ci sono, ma estrarli in modo utile richiede un rituale di filtri, export CSV, pivot table e ore di lavoro manuale. Vuoi sapere quali keyword con posizione media tra 8 e 15 hanno un CTR sotto la media del sito? Servono almeno 20 minuti e un foglio di calcolo. Vuoi incrociare quei dati con i problemi di indicizzazione? Aggiungi altri 20 minuti e un secondo tab.
Il protocollo MCP (Model Context Protocol) di Anthropic cambia questo paradigma. Con un server MCP dedicato a Search Console, Claude Code non si limita a leggere i tuoi dati: li interroga, li incrocia e ti restituisce insight operativi in linguaggio naturale. La dashboard diventa una conversazione.
In questo articolo analizzo il server MCP per Google Search Console, i 12 tool che mette a disposizione, e mostro come lo userei su un sito reale — con dati veri, problemi veri e workflow che trasformano ore di analisi in secondi di dialogo con l'AI.
Cos'è un server MCP per Search Console e perché cambia il gioco
MCP è uno standard aperto creato da Anthropic che permette ai modelli AI di interagire direttamente con strumenti esterni — database, API, servizi cloud — attraverso un'interfaccia standardizzata. Ho già parlato di questo protocollo nell'articolo su Screaming Frog MCP: il principio è lo stesso, ma l'applicazione è radicalmente diversa.
Se Screaming Frog MCP ti dice cosa succede sul tuo sito, il server MCP per Search Console ti dice cosa succede nella SERP.
La differenza rispetto all'uso tradizionale dell'API di Search Console è sostanziale. L'API GSC è potente ma grezza: richiede autenticazione OAuth, query strutturate in JSON, gestione della paginazione, e soprattutto la capacità di formulare in anticipo la domanda giusta nel formato giusto. Il server MCP elimina questa frizione.
Con il server MCP, dici a Claude: "quali sono le keyword dove sto perdendo CTR rispetto al mese scorso?" e il modello sa quale tool chiamare, come filtrare i dati e come presentarti il risultato. Non è una semplificazione cosmetica. È un cambio di interfaccia: da programmatica a conversazionale.
Nella mia esperienza, il vero collo di bottiglia nell'analisi SEO non è mai stato l'accesso ai dati. I dati ci sono, spesso in abbondanza. Il collo di bottiglia è la capacità di fare le domande giuste al momento giusto, senza dover prima costruire l'infrastruttura per ricevere la risposta. Il server MCP risolve esattamente questo problema.
I 12 tool disponibili: mappa completa delle funzionalità
Il server MCP per Google Search Console (versione 2, remote edition) espone 12 tool che coprono l'intero spettro delle operazioni disponibili tramite l'API GSC. Li ho raggruppati in tre blocchi funzionali.
Performance e analisi keyword
| Tool | Funzione | Caso d'uso tipico |
|---|---|---|
| list_properties | Elenca tutte le proprietà GSC collegate | Gestione multi-sito, selezione proprietà |
| get_search_analytics | Metriche di ricerca con filtri avanzati | Analisi keyword, trend CTR, confronto periodi |
| get_performance_overview | Panoramica performance sintetica | Report rapido, snapshot situazione attuale |
| find_keyword_opportunities | Identifica keyword con potenziale inespresso | Low-hanging fruit, keyword in posizione 8-20 |
| get_top_pages | Pagine con migliori performance | Identificare contenuti vincenti, pattern di successo |
Indicizzazione e sitemap
| Tool | Funzione | Caso d'uso tipico |
|---|---|---|
| inspect_url | Stato indicizzazione di un URL specifico | Diagnosi pagine non indicizzate, verifica fix |
| get_sitemaps | Lista sitemap inviate | Audit struttura sitemap, verifica copertura |
| submit_sitemap | Invio nuova sitemap | Deploy nuove sezioni, aggiornamento struttura |
| request_indexing | Richiesta indicizzazione URL | Accelerare indicizzazione contenuti nuovi o aggiornati |
Segmentazione e export
| Tool | Funzione | Caso d'uso tipico |
|---|---|---|
| get_device_comparison | Confronto mobile vs desktop | Priorità mobile-first, diagnosi performance per device |
| get_country_breakdown | Distribuzione traffico per paese | SEO internazionale, mercati geografici |
| export_analytics | Export dati in CSV/JSON | Reporting, integrazione con altri strumenti |
La vera potenza non sta nei singoli tool, ma nella concatenazione. Claude può chiamare get_search_analytics, filtrare per posizione, incrociare con inspect_url per verificare lo stato di indicizzazione delle pagine trovate, e restituirti un report prioritizzato in un unico flusso conversazionale.
Setup: dal progetto Google Cloud al primo collegamento
Il setup richiede tre componenti: credenziali OAuth Google Cloud, il server MCP deployato, e la configurazione in Claude Desktop o Claude Code. Non è complesso, ma ogni passaggio deve essere fatto correttamente.
Requisiti
| Componente | Dettaglio | Costo |
|---|---|---|
| Claude Code Max | Abbonamento con accesso MCP | $100/mese (o $200/mese per team) |
| Google Cloud Console | Progetto con OAuth 2.0 configurato | Gratuito |
| Server MCP | Deployato su Railway, Docker o VPS | Variabile (Railway da ~$5/mese) |
| Proprietà GSC | Almeno una proprietà verificata | Gratuito |
Passaggi chiave
- Crea un progetto Google Cloud Console e abilita l'API Search Console.
- Configura le credenziali OAuth 2.0 (tipo "applicazione web") con il redirect URI corretto.
- Deploy del server MCP — Railway è l'opzione raccomandata per semplicità. Un click deploy con le variabili d'ambiente GOOGLE_CLIENT_ID, GOOGLE_CLIENT_SECRET e GOOGLE_REDIRECT_URI.
- Autentica tramite il browser: il server genera un link di login Google. Autorizzi l'accesso a Search Console e ricevi un API key personale.
- Configura Claude Desktop o Claude Code aggiungendo il server MCP con l'URL e la tua API key nel file di configurazione MCP.
L'intera procedura richiede 15-20 minuti la prima volta. Le autenticazioni successive sono automatiche. Il repository di riferimento (AminForou/google-search-console-mcp-v2 su GitHub) include documentazione dettagliata per ogni opzione di deploy.
Caso reale: Roxmir, negozio di informatica
Per mostrare cosa diventa possibile con questo setup, uso i dati reali di un sito che seguo: Roxmir, il sito di un negozio di informatica. I numeri degli ultimi 3 mesi dalla Search Console:
| Metrica | Valore |
|---|---|
| Click totali | 40.500 |
| Impression totali | 1.660.000 |
| CTR medio | 2,4% |
| Posizione media | 8,1 |
Il sito ha un profilo di query interessante, dominato da keyword informazionali e commerciali nel settore smartphone, tablet e componentistica. Ma ha anche problemi strutturali significativi: 106 pagine con redirect, 61 errori 404, 37 pagine crawlate ma non indicizzate, e problemi di Core Web Vitals su mobile (LCP superiore a 2,5 secondi su 158 URL).
È il tipo di sito dove la quantità di dati supera la capacità di analisi manuale. Ed è esattamente dove il server MCP per Search Console esprime il suo valore.
Workflow 1: analisi performance in linguaggio naturale
Il primo workflow che testo su ogni sito è l'analisi performance. Nella Search Console tradizionale, questo significa: aprire il report Performance, aggiungere filtri uno alla volta, esportare in CSV, aprire un foglio di calcolo, ordinare, filtrare di nuovo, e finalmente avere una risposta. Con il server MCP, la domanda diventa letteralmente una domanda.
Esempio: keyword ad alto potenziale con CTR basso
Chiedo a Claude: "Quali keyword hanno posizione media sotto 10 ma CTR inferiore al 2%?" Il modello chiama get_search_analytics con i filtri appropriati e restituisce i risultati. Sui dati di Roxmir, emergono subito pattern interessanti.
La keyword "smartphone 2026" genera 2.412 impression con 280 click e posizione media sotto 1. Dovrebbe avere un CTR molto più alto di quello che ha. Perché? Forse il title tag non è ottimizzato, forse c'è un featured snippet che ruba click, forse la meta description non convince. Nella Search Console tradizionale, per arrivare a questa osservazione servono almeno 3 passaggi manuali. Con il server MCP, è la risposta a una singola domanda.
Esempio: trend temporale su keyword specifiche
Secondo scenario: "Come si è evoluto il traffico per le keyword relative ai prezzi RAM nell'ultimo mese?" Il server MCP interroga get_search_analytics con filtri temporali e keyword match. Roxmir ha diverse keyword in questa area — "prezzi ram" (239 click), "aumento prezzi ram" (223 click), "prezzi ram alle stelle" (207 click) — e il trend aggregato racconta una storia che i singoli dati non mostrano.
Il vantaggio reale non è la velocità (che pure è enorme). È la capacità di fare domande che non avresti formulato se avessi dovuto costruire manualmente il filtro per ogni ipotesi.
Workflow 2: individuare keyword opportunity in 30 secondi
Il tool find_keyword_opportunities è forse il più prezioso dell'intero set. Identifica keyword dove il sito ha visibilità ma non sta capitalizzando — il classico low-hanging fruit che ogni SEO specialist cerca.
La logica è semplice: keyword con posizione media tra 8 e 20 (pagina 1-2 di Google), impression significative, ma click bassi rispetto al potenziale. Sono keyword dove un miglioramento del title tag, della meta description o del contenuto potrebbe spostare l'ago in modo significativo.
Sui dati di Roxmir, questo tool avrebbe identificato immediatamente keyword come "miglior tablet 2026" — 1.596 impression ma solo 182 click, con volume di ricerca in crescita. Oppure "redmi note 15 5g recensione" — keyword long-tail con alta intenzione di acquisto e competizione relativamente bassa.
Fare questa analisi manualmente su un sito con centinaia di keyword richiede dai 30 ai 60 minuti di lavoro con un foglio di calcolo. Con il server MCP, è una singola richiesta che restituisce risultati prioritizzati e azionabili.
Come ha scritto Will Scott su Search Engine Land, parlando di un setup simile applicato all'analisi paid-organic: la stessa analisi che richiedeva un pomeriggio intero viene completata in meno di due minuti. Il fattore di accelerazione non è 2x o 5x. È un ordine di grandezza.
Workflow 3: diagnosi indicizzazione e copertura
Questo è il workflow dove il server MCP esprime il massimo valore aggiunto rispetto alla dashboard tradizionale. I problemi di indicizzazione della Search Console sono notoriamente difficili da diagnosticare: la dashboard ti dice cosa è successo, ma raramente ti dice perché o come prioritizzare i fix.
Roxmir ha un quadro tipico di un sito commerciale in crescita:
| Problema | Fonte | Pagine |
|---|---|---|
| Redirect (301/302) | Website | 106 |
| Not Found (404) | Website | 61 |
| Escluse da noindex | Website | 20 |
| Canonical alternativa | Website | 11 |
| Crawled, non indicizzate | Google Systems | 37 |
| Duplicate senza canonical | Website | 2 |
| Discovered, non indicizzate | Google Systems | 1 |
Nella Search Console tradizionale, ogni riga è un link che apre una lista di URL. Per capire l'impatto di ognuna, devi incrociare manualmente con i dati di performance. Quei 106 redirect? Alcuni sono pagine con zero traffico (legacy), altri potrebbero essere pagine con link esterni che perdono equity ad ogni hop. Senza incrocio, non puoi prioritizzare.
Con il server MCP, la domanda diventa: "Quali delle pagine con redirect hanno ricevuto impression negli ultimi 3 mesi?"
Claude chiama inspect_url per verificare lo stato di ogni pagina segnalata, poi incrocia con get_search_analytics per capire se quelle pagine generano ancora traffico. Il risultato è una lista prioritizzata: prima i redirect che stanno perdendo traffico, poi quelli con link esterni, poi il resto.
Lo stesso approccio si applica alle 37 pagine crawlate ma non indicizzate. Perché Google le ha scansionate ma ha deciso di non indicizzarle? Contenuto duplicato? Qualità insufficiente? Problema tecnico? Il server MCP non può rispondere direttamente a queste domande (i dati GSC non lo permettono), ma può dirti quali di quelle pagine erano precedentemente indicizzate, se avevano traffico, e quando sono state de-indicizzate. Informazioni che nella dashboard richiederebbero ore di navigazione manuale.
Workflow 4: confronto device e decisioni mobile-first
Il tool get_device_comparison segmenta i dati di performance per tipo di device. In un mondo mobile-first, questa segmentazione è critica per le decisioni operative.
Roxmir ha un problema di Core Web Vitals su mobile: LCP superiore a 2,5 secondi su 158 URL e CLS superiore a 0,1 su 86 URL. Ma quale impatto ha questo sulla performance organica? La Search Console tradizionale ti mostra i CWV in un report e le performance in un altro. L'incrocio è manuale.
Con il server MCP, chiedo a Claude: "Confronta CTR e posizione media mobile vs desktop per le top 20 keyword." Il modello chiama get_device_comparison e restituisce una vista che nella dashboard richiederebbe due export separati e un merge su foglio di calcolo.
Il pattern che emerge più spesso nei siti commerciali che gestisco è prevedibile ma sottovalutato: le keyword navigazionali performano ugualmente su mobile e desktop, ma le keyword commerciali (confronti, recensioni) hanno un gap di CTR mobile del 15-30%. Questo gap si traduce direttamente in revenue persa.
Il server MCP rende questo tipo di analisi immediato. Non è più un'analisi trimestrale che fai quando hai tempo. Diventa un check settimanale che fai in 30 secondi. E la frequenza dell'analisi cambia la qualità delle decisioni.
Il confronto: Search Console tradizionale vs Search Console + MCP
Ho usato la Search Console per più di un decennio. È uno strumento eccezionale, ma il suo limite è l'interfaccia: è progettata per mostrare dati, non per rispondere a domande. Il server MCP non la sostituisce — la rende interrogabile.
| Dimensione | GSC Tradizionale | GSC + MCP |
|---|---|---|
| Tempo per insight | 15-30 minuti (export + analisi) | 30-90 secondi (domanda diretta) |
| Cross-reference | Manuale (export multipli + spreadsheet) | Automatico (concatenazione tool) |
| Analisi keyword opportunity | Export → filtri → ordinamento manuale | find_keyword_opportunities + filtri naturali |
| Diagnosi indexing | Lista URL → ispezione singola | inspect_url batch + incrocio performance |
| Segmentazione device | Due report separati, merge manuale | get_device_comparison diretto |
| Automazione | Nessuna (interfaccia manuale) | Workflow ripetibili e schedulabili |
| Curva di apprendimento | Bassa (GUI intuitiva) | Media (richiede setup e familiarità MCP) |
| Costo aggiuntivo | Nessuno | Claude Code Max + hosting server MCP |
Il punto non è che uno sia meglio dell'altro. È che operano su scale temporali diverse. La Search Console tradizionale è ottima per un check rapido o per esplorare un singolo dato. Il server MCP è superiore quando hai bisogno di analizzare pattern, incrociare dimensioni o processare centinaia di keyword.
Il sistema completo: Search Console MCP + Screaming Frog MCP
Nell'articolo su Screaming Frog MCP e Claude Code ho descritto come automatizzare l'audit tecnico on-site. Il server MCP per Search Console è il pezzo complementare che completa il quadro.
La logica è semplice ma potente:
- Search Console MCP: ti dice cosa succede nella SERP — click, impression, posizioni, indicizzazione
- Screaming Frog MCP: ti dice cosa succede sul sito — struttura, errori tecnici, contenuto, link interni
- Claude Code: incrocia i due dataset e produce insight che nessuno dei due strumenti, da solo, potrebbe generare
Esempio concreto: hai 37 pagine crawlate ma non indicizzate (dato GSC). Perché? Screaming Frog può dirti che 20 di quelle pagine hanno contenuto thin (sotto 300 parole), 10 hanno canonical che puntano altrove, e 7 sono orfane (nessun link interno). Con entrambi i server MCP attivi, Claude fa questo incrocio automaticamente.
Will Scott su Search Engine Land ha definito questo tipo di setup un "SEO command center." È una definizione azzeccata, ma io la porterei oltre: è un sistema nervoso digitale per la SEO. I dati fluiscono da fonti diverse, vengono elaborati in modo contestuale, e producono azioni — non solo report.
La visione è un ciclo chiuso: GSC identifica il problema nella SERP → Screaming Frog diagnostica la causa on-site → Claude suggerisce (o applica) il fix → GSC verifica l'impatto dopo il recrawl. Audit continuo, non puntuale.
Limiti, rischi e quando non usare questo setup
Ogni strumento ha dei limiti. Essere trasparenti su cosa questo setup non può fare è tanto importante quanto mostrare cosa può fare.
Limiti tecnici
- Latenza dei dati: i dati di Search Console hanno un ritardo di 24-48 ore. Non è uno strumento di monitoraggio in tempo reale.
- Rate limit API: la GSC API ha limiti di chiamate. Su siti molto grandi (100K+ pagine) alcune query complesse possono richiedere paginazione e più tempo.
- Granularità dati: l'API non espone tutti i dati visibili nella dashboard. Alcuni report (come il report Links) non sono disponibili via API.
- Manutenzione OAuth: i token Google scadono. Il server MCP gestisce il refresh automatico, ma occasionalmente può richiedere re-autenticazione.
Limiti operativi
- Costo: Claude Code Max ($100/mese) più hosting del server MCP. Non è giustificabile per chi gestisce un singolo sito piccolo.
- Curva di apprendimento: il setup iniziale richiede familiarità con Google Cloud, OAuth e MCP. Non è un tool plug-and-play.
- Verifica necessaria: gli output di Claude vanno sempre verificati. L'AI può incrociare dati alla velocità della luce, ma l'interpretazione strategica resta responsabilità del professionista.
Quando non usarlo
Non serve se il tuo sito ha 20 pagine e 500 impression al mese. La Search Console tradizionale è più che sufficiente. Non serve se hai bisogno di dati in tempo reale — per quello servono altri strumenti. E non serve se non hai le competenze per interpretare i risultati: automatizzare l'estrazione dei dati non automatizza la strategia.
Per chi è adatto e prerequisiti di competenza
Questo setup non è per tutti, e non pretende di esserlo. Ecco il profilo di chi ne beneficia maggiormente.
Profili ideali
- SEO specialist con portfolio multi-sito: la concatenazione di query su proprietà diverse è dove il risparmio di tempo diventa drammatico.
- Agency con reporting ricorrente: workflow ripetibili su decine di clienti trasformano ore di lavoro in minuti.
- Team tecnici che integrano SEO nel CI/CD: la possibilità di interrogare GSC programmaticamente apre a monitoring automatico pre e post-deploy.
- Consulenti che lavorano su siti grandi: ecommerce con migliaia di pagine e keyword dove l'analisi manuale non scala.
Prerequisiti
- Familiarità con Search Console: devi sapere cosa stai cercando prima di automatizzare la ricerca.
- Comprensione delle metriche SEO: CTR, posizione media, impression, copertura — il tool velocizza l'analisi, non la sostituisce.
- Comfort con il terminale: Claude Code è un ambiente CLI. Non c'è GUI.
- Basi di OAuth e Google Cloud: il setup iniziale richiede configurare un progetto GCP.
Se il tuo workflow attuale prevede già export regolari da Search Console, analisi in spreadsheet e report manuali, questo setup è il passo successivo naturale. Se invece consulti la Search Console una volta al mese per un check rapido, probabilmente non vale l'investimento.
Da dashboard a conversazione: il futuro dell'analisi SEO
L'evoluzione è chiara: gli strumenti SEO stanno passando da interfacce grafiche passive a sistemi conversazionali attivi. Non è una moda. È un cambio di paradigma nell'interazione uomo-dato.
La Search Console resta uno strumento eccezionale. Ma la sua interfaccia è stata progettata in un'epoca in cui l'unico modo di interrogare i dati era filtro per filtro, tab per tab. Il server MCP non la sostituisce — la libera dai vincoli dell'interfaccia e la rende accessibile alla velocità del pensiero.
Con Screaming Frog MCP che analizza il sito, Search Console MCP che monitora la SERP, e Claude Code che incrocia i dati e suggerisce azioni, il professionista SEO può finalmente concentrarsi su quello che conta davvero: la strategia, l'interpretazione e le decisioni ad alto impatto.
Chi padroneggia questi strumenti oggi ha un vantaggio competitivo enorme. Non perché l'AI sostituisca il giudizio professionale — non lo fa. Ma perché elimina le ore di lavoro meccanico che separano la domanda dalla risposta.
Se vuoi esplorare come integrare questi strumenti nel tuo workflow SEO, o hai bisogno di supporto per la configurazione, contattami. Sono uno dei primi professionisti in Italia a lavorare con questo stack e posso aiutarti a implementarlo nel tuo contesto specifico.
Domande Frequenti
È un server che implementa il protocollo MCP (Model Context Protocol) di Anthropic, permettendo a Claude Code di interagire direttamente con i dati di Google Search Console tramite 12 tool specializzati: analisi performance, keyword opportunity, indicizzazione, confronto device e export dati.
Sì, è necessario creare un progetto su Google Cloud Console e configurare credenziali OAuth 2.0. Il progetto Google Cloud in sé è gratuito. Le credenziali OAuth permettono al server MCP di autenticarsi con l'API di Search Console per conto tuo.
No, i dati di Google Search Console hanno un ritardo nativo di 24-48 ore, indipendentemente dal metodo di accesso (dashboard, API o MCP). Questo è un limite di Google, non del server MCP. Per monitoraggio in tempo reale servono strumenti diversi.
Sì, il tool list_properties elenca tutte le proprietà GSC a cui hai accesso. Puoi interrogare qualsiasi proprietà nella stessa sessione, il che rende questo setup particolarmente vantaggioso per agency e consulenti che gestiscono decine di siti.
L'API GSC richiede autenticazione programmata, query JSON strutturate e gestione manuale della paginazione. Il server MCP aggiunge un livello di astrazione: Claude interpreta le tue domande in linguaggio naturale, sceglie il tool appropriato, configura i parametri e presenta i risultati in modo leggibile. Il dato sottostante è lo stesso, ma l'accesso è radicalmente più veloce.
Sì, i due server MCP possono essere attivi contemporaneamente in Claude Code. Questo permette di incrociare dati SERP (da Search Console) con dati on-site (da Screaming Frog) in un unico flusso conversazionale, creando un sistema di analisi SEO completo.
Sull'autore
Claudio Novaglio
SEO Specialist, AI Specialist e Data Analyst con oltre 10 anni di esperienza nel digital marketing. Lavoro con aziende e professionisti a Brescia e in tutta Italia per aumentare la visibilità organica, ottimizzare le campagne pubblicitarie e costruire sistemi di misurazione data-driven. Specializzato in SEO tecnico, local SEO, Google Analytics 4 e integrazione dell'intelligenza artificiale nei processi di marketing.
Vuoi migliorare i tuoi risultati online?
Parliamo del tuo progetto. La prima consulenza è gratuita, senza impegno.