DataForSEO + Claude Code MCP: Dati SEO di Mercato Direttamente nel Terminale

DataForSEO via MCP dentro Claude Code: dati di mercato, keyword, backlink e SERP disponibili a comando — senza script, senza dashboard, senza tab aperti.
Negli ultimi mesi ho documentato come uso Screaming Frog via MCP per gli audit tecnici e come le skill di Claude Code rendano i workflow ripetibili. Mancava il terzo pezzo: i dati di mercato. Volumi di ricerca, posizionamenti SERP, profili backlink, analisi della concorrenza — tutta quella parte che normalmente richiede Semrush, Ahrefs o strumenti simili.
DataForSEO è un provider API pay-as-you-go che espone praticamente tutti i dati SEO che ti servono. Niente abbonamenti da 200€/mese per funzionalità che usi al 10%. Paghi quello che consumi. E con il loro server MCP, questi dati diventano accessibili direttamente da Claude Code — stesso flusso di lavoro, stessa conversazione, zero context switching.
In questo articolo spiego come integrerei DataForSEO MCP nel mio stack, che skill costruirei per orchestrare il flusso, e soprattutto: mostro i casi d'uso concreti dove questa combinazione cambia radicalmente il modo di lavorare.
DataForSEO MCP: cos'è e cosa mette a disposizione
DataForSEO ha rilasciato un server MCP ufficiale che espone le loro API come tool utilizzabili dai modelli AI. In pratica: invece di scrivere codice Python per chiamare l'endpoint /v3/serp/google/organic/live, chiedi a Claude "controllami le posizioni per queste keyword" e lui chiama l'API, riceve i dati, li analizza e ti restituisce insight.
Il server si installa con un comando: npx dataforseo-mcp-server. Supporta tre protocolli di comunicazione — stdio per l'uso locale con Claude Code, HTTP per integrazioni web, SSE per compatibilità con client legacy. C'è anche un endpoint remoto su mcp.dataforseo.com per chi non vuole installare nulla.
Le 12 API disponibili
Il pacchetto completo di DataForSEO copre praticamente ogni aspetto dell'analisi SEO. Non servono tutte — anzi, filtrarle è fondamentale per non saturare la context window di Claude. Ecco le principali con il loro uso pratico.
| API | Cosa fa | Quando la uso |
|---|---|---|
| SERP API | SERP in tempo reale da Google, Bing, Yahoo | Monitoraggio posizioni, analisi intent, SERP feature |
| Keywords Data | Volumi di ricerca, CPC, keyword suggest | Keyword research, content planning, gap analysis |
| DataForSEO Labs | Database proprietario: keyword per dominio, domini per keyword, intersezioni | Analisi competitiva approfondita |
| Backlinks | Profilo link, referring domain, anchor text | Backlink audit, link building strategy |
| OnPage | Crawl e analisi tecnica via API | Audit tecnico alternativo/complementare a SF |
| Domain Analytics | Stime traffico, technology stack, whois | Panoramica competitiva rapida |
| Business Data | Google My Business, recensioni, dati local | SEO locale, analisi reputation |
| Content Analysis | Monitoraggio brand, sentiment | Brand monitoring, PR digitale |
| AI Optimization | Benchmark risposte LLM su query specifiche | Ottimizzazione per AI search (GEO/AEO) |
| Merchant | Dati e-commerce, prezzi, prodotti | SEO per e-commerce, analisi pricing |
| App Data | ASO, ranking app store | Ottimizzazione app mobile |
| Content Generation | Generazione testi via AI | Non la uso — preferisco generare internamente |
Pay-as-you-go: il modello economico che ha senso
Il punto di forza di DataForSEO rispetto a Semrush o Ahrefs non è la qualità dei dati (sono comparabili). È il modello di costo. Con Semrush spendo 120-230€/mese per un abbonamento che include migliaia di feature che non tocco. Con DataForSEO pago le singole chiamate API: una ricerca SERP costa circa 0,002€. Un'analisi keyword con volumi e CPC costa 0,004€ per keyword.
Per un consulente che fa 4-5 progetti al mese, il costo mensile di DataForSEO si aggira sui 20-50€ contro i 120-230€ di un tool con dashboard. Se poi quel consulente usa già Claude Code Max (100$/mese), l'integrazione MCP non ha costi aggiuntivi di infrastruttura — il server MCP è gratuito e open source.
Setup: come configuro DataForSEO MCP in Claude Code
La configurazione segue lo stesso pattern del server MCP di Screaming Frog che ho documentato nel primo articolo della serie. Si aggiunge un blocco nel file .mcp.json nella directory di Claude Code.
Configurazione base
Il server si lancia tramite npx, passando le credenziali API come variabili d'ambiente. Le credenziali DataForSEO sono diverse dal login della dashboard — si generano dalla sezione API del pannello di controllo.
L'aspetto più importante della configurazione è il parametro ENABLED_MODULES. DataForSEO espone centinaia di tool — se li carichi tutti, occupano una fetta significativa della context window di Claude e rallentano ogni interazione. Filtrare solo i moduli che usi effettivamente è fondamentale.
Nel mio caso attiverei cinque moduli: serp, keywords_data, dataforseo_labs, backlinks e business_data. Questo copre il 95% dei casi d'uso di un consulente SEO senza sprecare contesto su API che non mi servono (merchant, app data, content generation).
Permessi in settings.local.json
Come per ogni MCP, serve autorizzare i tool nel file di permessi del progetto. Ogni tool va aggiunto alla lista allow — questo è un meccanismo di sicurezza di Claude Code che impedisce ai server MCP di eseguire operazioni non esplicitamente autorizzate.
In pratica: la prima volta che Claude prova a usare un tool DataForSEO, ti chiede conferma. Puoi approvarlo una tantum o aggiungerlo permanentemente ai permessi. Dopo la fase iniziale di setup, il flusso è trasparente.
Caso d'uso 1: keyword research per un nuovo cluster di contenuti
Scenario concreto: sto pianificando una nuova sezione del sito su un topic specifico — diciamo "SEO per il settore immobiliare a Brescia". Prima di scrivere qualsiasi pagina, ho bisogno di dati: quali keyword hanno volume, quale intent esprimono, chi si posiziona già.
Il flusso senza DataForSEO MCP
- Apro Semrush o Ubersuggest.
- Cerco "seo immobiliare brescia" e varianti.
- Esporto i risultati in CSV.
- Apro il CSV in un foglio di calcolo.
- Filtro per volume, KD, intent.
- Raggruppo manualmente le keyword in cluster.
- Apro Claude (web) e incollo i dati per farmi aiutare con il content plan.
- Torno nell'editor per iniziare a scrivere.
Otto passaggi, tre strumenti diversi, almeno 40 minuti. E ogni volta che mi serve un dato in più (un volume, una SERP, un competitor), riparto dal punto 1.
Il flusso con DataForSEO MCP
In Claude Code, con il server MCP attivo, il flusso diventa una conversazione.
Chiedo: "Fammi una keyword research per SEO immobiliare a Brescia. Cerca le keyword con volume, raggruppa per intent, dimmi chi si posiziona nelle top 10."
Claude esegue in sequenza: chiama Keywords Data per i volumi delle keyword seed, poi keyword_suggestions per espandere la lista, poi SERP API sulle keyword principali per capire chi si posiziona. Il tutto senza che io tocchi nulla.
Il risultato arriva come analisi strutturata: cluster di keyword raggruppate per intent (informazionale, transazionale, navigazionale), con volumi aggregati, difficoltà stimata e una mappa dei competitor con le loro pagine posizionate.
Da quel punto, sono già dentro Claude Code — posso passare direttamente alla creazione dei contenuti, alla stesura del brief editoriale, o alla creazione delle pagine nel CMS. Nessun context switching, nessun copia-incolla tra strumenti.
Perché conta: keyword research come commodity vs. analisi strategica
La keyword research come lista di keyword con volumi è una commodity. Il valore sta nell'interpretazione: quali cluster hanno senso per il mio sito, dove c'è un gap che posso colmare, quali pagine esistenti posso ottimizzare invece di crearne di nuove. Con i dati disponibili in conversazione, Claude può incrociare la keyword research con la struttura attuale del sito e suggerire dove intervenire — cosa che nessun tool di keyword research fa autonomamente.
Caso d'uso 2: analisi competitiva con dati reali
Esempio tipico: un cliente mi chiede "perché il competitor X si posiziona meglio di noi su queste keyword?". La risposta richiede dati da almeno tre fonti diverse: posizionamenti SERP, profilo backlink, e struttura dei contenuti.
Il flusso integrato
Con DataForSEO MCP, faccio tutto da Claude Code.
Step 1 — Posizioni SERP: chiedo a Claude di confrontare le posizioni del mio sito e del competitor su un set di keyword target. DataForSEO Labs ha un endpoint specifico per le intersezioni tra domini — mostra le keyword dove entrambi si posizionano e dove solo uno dei due è presente.
Step 2 — Backlink gap: l'API Backlinks restituisce il profilo link di entrambi i domini. Claude confronta: quanti referring domain, distribuzione dei DR, anchor text prevalenti, link do-follow vs no-follow. Identifica i siti che linkano il competitor ma non me.
Step 3 — Analisi contenuti: usando i dati SERP, Claude analizza le pagine del competitor che si posizionano — lunghezza, struttura heading, keyword density, SERP feature catturate (featured snippet, people also ask, FAQ). Questo non viene dall'API direttamente ma dalla SERP stessa.
Step 4 — Sintesi operativa: Claude produce un documento che non è un dump di dati ma un'analisi con priorità. "Il competitor ha 3x i tuoi referring domain, concentrati sui link. Su queste 5 keyword hai contenuto migliore ma meno autorità. Su queste 3 keyword non hai una pagina dedicata — creala."
Tutto questo succede in una singola conversazione. In un workflow tradizionale, le stesse informazioni richiedono accesso a 2-3 tool diversi, export multipli e almeno 2-3 ore di analisi manuale.
Caso d'uso 3: audit completo combinando Screaming Frog e DataForSEO
Questo è lo scenario dove avere due MCP nella stessa sessione di Claude Code diventa veramente potente. Screaming Frog dà i dati tecnici (crawl, status code, meta tag, canonical). DataForSEO dà i dati di mercato (posizioni, keyword, backlink). Insieme, coprono l'intero spettro di un audit SEO professionale.
Il workflow combinato
Fase tecnica (Screaming Frog MCP): crawl del sito, export dei tab principali, analisi dei problemi tecnici — title mancanti, description fuori range, alt vuoti, redirect chain, canonical errati. Questo lo faccio già oggi, è documentato nell'articolo dedicato.
Fase dati di mercato (DataForSEO MCP): per ogni pagina importante del sito, verifico la posizione attuale sulle keyword target, il volume di quelle keyword, i competitor diretti in SERP. Identifico le pagine con potenziale di crescita (posizioni 4-20) e quelle a rischio di calo.
Incrocio dei dati: questa è la parte dove il valore esplode. Claude incrocia i dati tecnici con quelli di mercato. Esempio: una pagina ha il title troppo lungo (dato tecnico) E si posiziona in 6a posizione su una keyword da 500 ricerche/mese (dato di mercato). La priorità del fix sale perché ha impatto reale sul traffico. Al contrario, un title troppo lungo su una pagina che non si posiziona per nessuna keyword rilevante ha priorità bassa.
Report prioritizzato per impatto: il report finale non ordina i problemi per tipo (prima i title, poi le description, poi le immagini) ma per impatto stimato. "Correggi questo title perché guadagneresti 2 posizioni su una keyword da 800 ricerche/mese" vale più di "correggi questi 15 alt text su pagine che nessuno cerca".
Esempio concreto: prioritizzare i fix su claudio-novaglio.com
Sul mio sito, l'audit tecnico con Screaming Frog potrebbe trovare 10 problemi tecnici — tutti classificati come "da risolvere" nel workflow tradizionale. Ma con i dati di mercato di DataForSEO, scopro che:
- 3 problemi riguardano pagine posizionate in top 10 su keyword con volume → priorità massima.
- 4 problemi riguardano pagine senza traffico organico → priorità bassa, posso aspettare.
- 2 problemi riguardano pagine con potenziale (posizioni 11-20) → priorità alta, il fix potrebbe farle salire in prima pagina.
- 1 problema riguarda una pagina che ho deciso di eliminare → lo ignoro del tutto.
Senza i dati di mercato, avrei trattato tutti e 10 i problemi con la stessa urgenza. Con DataForSEO, investo il mio tempo dove ha più impatto.
Caso d'uso 4: monitoraggio posizioni post-pubblicazione
Quando pubblico una nuova pagina — un blog post, una landing page, una nuova pagina servizio — voglio sapere come si posiziona. Non tra un mese quando guardo Search Console, ma nei giorni successivi alla pubblicazione.
Il flusso
Dopo la pubblicazione, creo un prompt (o meglio, una skill) che:
- Prende la lista delle keyword target della pagina appena pubblicata.
- Ogni 3-5 giorni, interroga la SERP API di DataForSEO per quelle keyword.
- Registra la posizione del mio dominio (se presente nelle top 100).
- Confronta con la posizione precedente e segnala movimenti significativi.
- Se la pagina entra in top 20, suggerisce ottimizzazioni per spingere in top 10.
- Se la pagina non compare dopo 2 settimane, segnala che potrebbe servire un'analisi del contenuto.
Il costo di questo monitoraggio è minimo: una chiamata SERP per keyword costa 0,002€. Monitorare 20 keyword per 30 giorni (4 check) costa circa 0,16€. Per confronto, un tool di rank tracking dedicato parte da 30-50€/mese.
Il valore reale: feedback loop rapido
Il monitoraggio immediato post-pubblicazione non è vanità. È un feedback loop che mi permette di intervenire quando la pagina è ancora "fresca" per Google. Se vedo che dopo una settimana la pagina si posiziona in 15a posizione, posso ottimizzare il title, arricchire il contenuto o aggiungere internal link mentre Google sta ancora decidendo dove collocarla. Aspettare un mese significa perdere quella finestra di opportunità.
Caso d'uso 5: dati local SEO per le pagine comunali
Sul mio sito ho una rete di pagine geo-targettizzate per i comuni della provincia di Brescia. Ogni pagina punta a keyword del tipo "consulente SEO + comune" o "servizio SEO + comune". Per queste pagine, i dati di Business Data e le SERP locali di DataForSEO sono particolarmente utili.
Cosa farei con i dati local
- SERP geolocalizzate: DataForSEO permette di specificare la location nella ricerca SERP. Posso vedere come si posiziona la mia pagina di Brescia cercando da Brescia, e come si posiziona la pagina di Desenzano cercando da Desenzano. I risultati possono essere molto diversi.
- Google Maps / Business Data: per capire il livello di competizione locale. Quante attività SEO ci sono nell'area? Quali hanno recensioni? Questo mi aiuta a calibrare il contenuto delle pagine comunali.
- Keyword volume per località: il volume di "consulente SEO Brescia" è diverso da "consulente SEO Desenzano". DataForSEO fornisce volumi geolocalizzati che mi permettono di prioritizzare quali comuni coprire prima.
Combinando questi dati con il crawl tecnico di Screaming Frog, posso verificare che ogni pagina comunale sia tecnicamente perfetta (SF) e strategicamente allineata con il volume di ricerca locale (DataForSEO).
Caso d'uso 6: ottimizzazione per AI Search
Questo è il caso d'uso più forward-looking. L'API AI Optimization di DataForSEO permette di testare come i principali LLM (ChatGPT, Claude, Gemini, Perplexity) rispondono a query specifiche. In pratica: posso chiedere "quando un utente chiede a ChatGPT chi è il miglior consulente SEO a Brescia, cosa risponde?".
Perché mi interessa
L'AI search sta crescendo. Sempre più utenti usano ChatGPT, Perplexity o Google SGE per cercare servizi professionali. Se il mio nome non compare nelle risposte di questi modelli, sto perdendo visibilità su un canale emergente.
Con l'API AI Optimization posso:
- Monitorare se vengo citato nelle risposte AI per le mie keyword target.
- Capire quali fonti gli LLM usano per costruire le loro risposte.
- Identificare i pattern di contenuto che favoriscono la citazione (struttura, autorevolezza, dati).
- Confrontare la mia presenza con quella dei competitor nelle risposte AI.
È ancora un'area in evoluzione, ma avere i dati fin da ora mi permette di costruire una baseline e misurare i progressi nel tempo.
La skill che costruirei per orchestrare DataForSEO MCP
Come ho spiegato nell'articolo sulle skill di Claude Code per la SEO, una skill è una documentazione strutturata che rende il comportamento di Claude ripetibile e coerente tra sessioni diverse. Senza skill, Claude è bravo ma imprevedibile: ogni sessione produce risultati leggermente diversi. Con la skill, il processo è identico ogni volta.
Struttura della skill dataforseo-analysis
Ecco come strutturerei la skill per l'analisi competitiva con DataForSEO. Non è un'ipotesi teorica — segue lo stesso pattern che uso per la skill nano-banana (generazione immagini) e per l'audit Screaming Frog.
Frontmatter: il trigger è il punto cruciale. Non scrivo "analizza dati SEO con DataForSEO" (sarebbe un riassunto del workflow, e Claude lo userebbe come scorciatoia). Scrivo: "Use when performing competitive analysis, keyword research, backlink audits, or SERP monitoring. Triggers: analisi competitiva, keyword research, backlink audit, monitoraggio posizioni."
Moduli attivi: la skill specifica quali moduli DataForSEO usare per ogni tipo di analisi. Keyword research → keywords_data + dataforseo_labs. Analisi competitiva → dataforseo_labs + backlinks + serp. Monitoraggio posizioni → serp. Questo evita che Claude sprechi chiamate API su moduli irrilevanti.
Soglie e criteri decisionali: la parte che fa la differenza. Volume keyword: >100/mese = rilevante, >500/mese = prioritario, >1000/mese = strategico. Posizione SERP: 1-3 = difendi, 4-10 = ottimizza, 11-20 = spingi, 21-50 = valuta, >50 = ignora. Backlink ratio: se il competitor ha >3x i tuoi referring domain, la link building è priorità #1. Senza questi numeri, Claude improvvisa ogni volta.
Output template: la skill definisce il formato esatto del report. Sezioni fisse, ordine dei dati, livello di dettaglio. "Executive summary (3 righe) → keyword gap table → backlink comparison → azioni raccomandate con priorità → costo stimato DataForSEO." Stesso formato ogni volta, leggibile anche dal cliente finale.
Gestione costi: la skill include una regola di budget. "Prima di eseguire, stima il costo delle chiamate API e mostra il preventivo. Se il costo supera 5€, chiedi conferma." Questo evita sorprese sulla fattura DataForSEO — un'analisi competitiva su 500 keyword potrebbe costare 10-15€ se non controllata.
La chiave: soglie, non aggettivi
Il pattern che funziona per tutte le mie skill è lo stesso: numeri concreti, mai aggettivi. "Volume alto" non significa nulla — Claude interpreta 100, 500 o 5000 a seconda dell'umore. "Volume >500/mese" è inequivocabile. Ogni soglia deve essere un numero, ogni azione deve avere un trigger preciso, ogni output deve seguire un template fisso.
Questo è il motivo per cui le skill trasformano Claude da "assistente brillante ma incoerente" a "analista rigoroso che segue un processo". La differenza si vede quando fai 10 analisi per 10 clienti diversi e il format del report è identico ogni volta.
Il quadro completo: tre MCP orchestrati da skill
Guardiamo il quadro completo del mio stack Claude Code per la SEO. Tre server MCP, ciascuno con il suo dominio, orchestrati da skill dedicate.
| MCP Server | Dominio | Dati che fornisce | Skill associata |
|---|---|---|---|
| Screaming Frog | Audit tecnico | Crawl, status code, meta tag, immagini, canonical, redirect | seo-audit |
| DataForSEO | Dati di mercato | SERP, keyword, backlink, competitor, local SEO | dataforseo-analysis |
| Nano Banana | Asset visivi | Cover image, hero image, immagini brandizzate | nano-banana |
Ogni MCP è specializzato. Nessuno fa tutto, e non devono. Il potere sta nella combinazione: Screaming Frog mi dice come sta il sito tecnicamente, DataForSEO mi dice come sta sul mercato, Nano Banana mi genera gli asset visivi quando creo nuove pagine. Claude Code è il cervello che li orchestra.
Come le skill si parlano tra loro
Le skill non sono compartimenti stagni. Ecco un flusso reale dove tre skill si concatenano.
- Un audit tecnico (skill seo-audit + SF MCP) trova che 5 pagine hanno title da ottimizzare.
- La skill dataforseo-analysis interviene per controllare le posizioni di quelle 5 pagine — serve sapere se il fix del title ha impatto potenziale.
- Claude scopre che 2 di quelle pagine sono in posizione 6-8 su keyword da 300+ ricerche/mese. Priorità massima.
- Per quelle 2 pagine, Claude riscrive il title e la meta description.
- Se una delle pagine non ha una cover image adeguata, la skill nano-banana genera un'immagine di copertina coerente con il brand.
- Re-crawl con Screaming Frog per verificare che i fix tecnici siano a posto.
- Dopo qualche giorno, monitoraggio SERP via DataForSEO per misurare l'impatto.
Questo workflow, nel paradigma tradizionale, coinvolgerebbe 4-5 strumenti diversi, altrettante dashboard, e probabilmente una giornata di lavoro. Con tre MCP e le skill giuste, si fa in un'ora.
Confronto costi: stack MCP vs. stack tradizionale
Mettiamo i numeri uno accanto all'altro. Un consulente SEO che fa 5 progetti al mese.
| Voce | Stack tradizionale | Stack MCP + Claude Code |
|---|---|---|
| Tool keyword/backlink | Semrush/Ahrefs: 120-230€/mese | DataForSEO: ~30-50€/mese (pay-as-you-go) |
| Crawler tecnico | Screaming Frog: ~22€/mese (259€/anno) | Stesso: ~22€/mese |
| AI assistant | ChatGPT Plus: 20€/mese (copia-incolla manuale) | Claude Code Max: ~92€/mese (integrazione nativa) |
| Rank tracker | SE Ranking/AccuRanker: 30-50€/mese | DataForSEO SERP API: ~5€/mese |
| Image generation | Canva Pro/Midjourney: 12-30€/mese | Nano Banana via OpenRouter: ~2€/mese |
| Totale mensile | 204-352€/mese | ~151-171€/mese |
| Ore lavoro manuale/mese | 40-60 ore | 10-15 ore |
Il risparmio diretto in abbonamenti è significativo ma non enorme. Il risparmio vero è nelle ore: 30-45 ore al mese di lavoro manuale che si liberano. Per un consulente che fattura 50-100€/ora, sono 1.500-4.500€/mese di capacità recuperata.
Limiti e considerazioni pratiche
Non è tutto rose. Ci sono aspetti da considerare seriamente prima di adottare questo stack.
Context window e complessità
Il limite più concreto è la context window di Claude. Ogni MCP attivo occupa spazio con le definizioni dei tool. Con tre MCP attivi (SF + DataForSEO + Nano Banana), una fetta significativa del contesto è già occupata prima di iniziare a lavorare. Il parametro ENABLED_MODULES di DataForSEO non è un optional — è una necessità.
Qualità dei dati
I dati di DataForSEO sono stimati, come quelli di Semrush e Ahrefs. I volumi di ricerca sono approssimazioni, le posizioni SERP possono variare in base alla geolocalizzazione e alla personalizzazione. Non sono la verità assoluta — sono indicatori utili per prendere decisioni informate. Per i dati di performance reale (impression, click, CTR), serve sempre Google Search Console.
Costi API su grandi volumi
Il modello pay-as-you-go è un vantaggio quando i volumi sono contenuti. Ma su un progetto con 50.000 keyword da monitorare e analisi competitor su 20 domini, i costi possono salire rapidamente. La skill con budget cap diventa essenziale per evitare sorprese in fattura. Per progetti molto grandi, l'abbonamento flat di un tool tradizionale potrebbe ancora avere senso economicamente.
Curva di apprendimento
Configurare MCP, scrivere skill, gestire permessi, orchestrare workflow multi-tool: non è un setup da 5 minuti. Serve familiarità con Claude Code, con il terminale, con Git, e con i concetti SEO sottostanti. Il ROI è alto, ma l'investimento iniziale in tempo e competenza è reale.
Quando non ha senso
- Se fai un audit ogni tanto e basta → il workflow tradizionale è sufficiente.
- Se non hai accesso al codice sorgente dei siti che analizzi → perdi il ciclo chiuso.
- Se lavori con un team non tecnico → la complessità dello stack potrebbe essere un freno.
- Se i tuoi clienti vogliono dashboard e grafici → DataForSEO non ha UI, servono tool aggiuntivi per la reportistica visual.
Conclusione: il consulente SEO come system integrator
Quello che sto costruendo — e che ho documentato in questa serie di tre articoli — non è un sostituto degli strumenti SEO tradizionali. È un'evoluzione del modo di usarli.
Screaming Frog resta il crawler più completo. DataForSEO ha dati comparabili a Semrush. Claude Code ha capacità di ragionamento che nessun tool SEO integra nativamente. MCP è il collante che li fa lavorare insieme senza friction. Le skill sono le istruzioni operative che rendono il tutto ripetibile.
Il ruolo del consulente SEO in questo paradigma cambia. Non è più quello che apre 5 tab, esporta CSV e compila report. È quello che progetta i workflow, scrive le skill, configura gli MCP, e interviene sulle decisioni strategiche che richiedono giudizio umano. Il lavoro manuale ripetitivo — crawl, export, analisi base, report standard — viene delegato a un sistema che lo fa meglio, più velocemente e senza errori.
Non è fantascienza. È il setup che uso ogni giorno, costruito pezzo dopo pezzo nell'ultimo anno. E ogni nuovo MCP che aggiungo allo stack rende il sistema un po' più completo e un po' più autonomo.
Se vuoi vedere il primo pezzo del puzzle, leggi come uso Screaming Frog MCP per gli audit tecnici automatizzati.
Per capire come le skill rendono tutto questo ripetibile, leggi il mio articolo su come creare skill SEO per Claude Code.
Per discutere di come questo approccio potrebbe funzionare per il tuo progetto, contattami. Lavoro con aziende e professionisti che vogliono portare la SEO a un altro livello.
Domande Frequenti
DataForSEO MCP è un server Model Context Protocol che espone le API di DataForSEO come tool utilizzabili da Claude Code. Si installa con "npx dataforseo-mcp-server" e si configura nel file .mcp.json con le credenziali API. Supporta i protocolli stdio, HTTP e SSE.
DataForSEO usa un modello pay-as-you-go: una ricerca SERP costa circa 0,002€, un'analisi keyword circa 0,004€ per keyword. Per un consulente con 4-5 progetti al mese, il costo si aggira sui 30-50€/mese contro i 120-230€/mese di un abbonamento Semrush o Ahrefs.
Sì. Claude Code supporta più server MCP contemporaneamente. Screaming Frog fornisce i dati tecnici (crawl, status, meta tag), DataForSEO fornisce i dati di mercato (posizioni, keyword, backlink). Combinandoli nella stessa sessione, si ottiene un audit SEO completo con prioritizzazione basata sull'impatto reale.
Sì. Il supporto MCP è disponibile solo con Claude Code Max (100$/mese). È necessario anche un account DataForSEO con credenziali API. Il server MCP stesso è gratuito e open source.
La best practice è creare una skill Claude Code che include un budget cap. Prima di eseguire un'analisi, la skill impone a Claude di stimare il costo delle chiamate API e mostrare il preventivo. Se il costo supera la soglia (es. 5€), viene chiesta conferma. Questo evita sorprese in fattura su analisi con grandi volumi di keyword.
Per la maggior parte dei consulenti SEO, bastano 5 moduli: serp (posizioni), keywords_data (volumi e suggerimenti), dataforseo_labs (analisi competitiva), backlinks (profilo link) e business_data (SEO locale). Filtrare i moduli con ENABLED_MODULES è fondamentale per non saturare la context window di Claude.
No. DataForSEO fornisce dati stimati (volumi, posizioni indicative, backlink). Google Search Console fornisce dati reali di performance (impression, click, CTR, posizione media reale). I due si complementano: DataForSEO per la ricerca e l'analisi competitiva, Search Console per la misurazione delle performance effettive.
Sull'autore
Claudio Novaglio
SEO Specialist, AI Specialist e Data Analyst con oltre 10 anni di esperienza nel digital marketing. Lavoro con aziende e professionisti a Brescia e in tutta Italia per aumentare la visibilità organica, ottimizzare le campagne pubblicitarie e costruire sistemi di misurazione data-driven. Specializzato in SEO tecnico, local SEO, Google Analytics 4 e integrazione dell'intelligenza artificiale nei processi di marketing.
Vuoi migliorare i tuoi risultati online?
Parliamo del tuo progetto. La prima consulenza è gratuita, senza impegno.