SEO + AI Lab

Screaming Frog + Claude Code: Come Uso l'AI per Automatizzare l'Audit SEO Tecnico

Claudio Novaglio
17 min di lettura
Screaming Frog MCP per Claude Code — audit SEO automatizzato

Screaming Frog e Claude Code connessi via MCP: audit SEO tecnico automatizzato, correzioni applicate in tempo reale e workflow schedulati che mantengono il sito in salute — tutto dal terminale.

In questo articolo mostro come ho configurato e utilizzato il server MCP di Screaming Frog all'interno di Claude Code Max per analizzare il mio stesso sito, claudio-novaglio.com. Non mi limito a raccontare l'analisi: mostro come Claude Code può correggere i problemi trovati, e come ho costruito un sistema di monitoraggio automatico che rileva e risolve regressioni SEO prima che impattino il ranking.

Se lavori nella SEO tecnica e stai cercando un modo per passare da "analisi manuale + spreadsheet" a un workflow completamente autonomo, questo articolo fa per te. Non è un tutorial da 5 minuti: è il documento operativo di come lavoro sui miei progetti.

Cos'è il protocollo MCP e perché cambia il gioco per la SEO tecnica

MCP sta per Model Context Protocol. È uno standard aperto, sviluppato da Anthropic, che permette ai modelli AI di comunicare direttamente con strumenti esterni — database, API, software desktop — attraverso un'interfaccia strutturata e bidirezionale.

La differenza rispetto al classico "copia i dati da Screaming Frog e incollali in ChatGPT" è fondamentale: con MCP il modello AI non riceve dati passivamente. Può lanciare un crawl, attendere il completamento, esportare i risultati, filtrarli, analizzarli e — questa è la parte cruciale — agire sui problemi trovati modificando direttamente il codice del sito.

Non è un'automazione "cieca". Claude Code ragiona sui dati, capisce il contesto del sito, e prende decisioni informate su cosa correggere e come. Il risultato è un ciclo chiuso: crawl → analisi → fix → verifica — senza che io tocchi un singolo file manualmente.

Come funziona tecnicamente

Il server MCP di Screaming Frog è un processo che gira in background sulla tua macchina. Quando Claude Code ha bisogno di dati SEO, invia una richiesta al server MCP, che a sua volta chiama Screaming Frog CLI. I risultati tornano a Claude Code in formato strutturato.

Questo significa che Claude Code non "vede" l'interfaccia grafica di Screaming Frog. Non simula click. Usa la CLI direttamente, che è più veloce, più affidabile e completamente scriptabile. I dati vengono esportati in CSV e letti programmaticamente, con possibilità di filtraggio per colonna e paginazione per gestire dataset grandi.

Setup completo: dall'installazione al primo crawl

Requisiti di sistema

ComponenteDettaglioCosto
Claude Code MaxPiano Anthropic da 100$/mese — necessario per supporto MCP100$/mese
Screaming Frog SEO SpiderInstallato localmente, licenza attiva (500 URL nella versione free)0-259$/anno
screaming-frog-mcpServer MCP open source (Python/uvx)Gratuito
Node.js / PythonRuntime per il server MCP e gli script di automazioneGratuito

Il costo effettivo è 100 dollari al mese per Claude Code Max più la licenza Screaming Frog se la usi già. Se fai anche solo 4 audit al mese, il risparmio di tempo rispetto al workflow manuale ripaga l'investimento dal primo mese.

Configurazione del server MCP

Il server MCP si installa come pacchetto Python via uvx. La configurazione va nel file .mcp.json nella directory di Claude Code. Bisogna specificare il percorso esatto dell'eseguibile CLI di Screaming Frog.

Su Windows il percorso tipico è "C:\Program Files (x86)\Screaming Frog SEO Spider\ScreamingFrogSEOSpiderCli.exe". Su Mac si usa il path dell'app bundle. Su Linux dipende dal metodo di installazione.

Un dettaglio importante: la GUI e la CLI di Screaming Frog non possono girare contemporaneamente. Se hai l'interfaccia grafica aperta, il crawl via MCP fallirà con un errore esplicito. Il server MCP fa un check automatico e ti avvisa prima di tentare il crawl.

Altro dettaglio tecnico che ho scoperto lavorandoci: Screaming Frog salva il database dei crawl in una directory specifica (su Windows è sotto .ScreamingFrogSEOSpider nella home dell'utente). Il server MCP gestisce fino a 10 export simultanei con un TTL di un'ora per la pulizia automatica. Per sessioni intensive con molti crawl, è utile sapere dove pulire manualmente se necessario.

Gli 8 tool MCP: cosa fa ciascuno e come concatenarli

Il server MCP espone 8 strumenti che coprono l'intero ciclo di un audit SEO tecnico. Ma il vero potere non sta nei singoli tool: sta nel modo in cui Claude Code li concatena autonomamente.

ToolFunzioneInput chiaveOutput
sf_checkVerifica installazione SFNessunoVersione e stato CLI
crawl_siteLancia crawl di un dominioURL del sitoID del crawl + stato
crawl_statusMonitora crawl in corsoCrawl IDStato, URL crawlate, tempo
list_crawlsElenca crawl salvatiNessunoLista con ID, nome, dimensione
export_crawlEsporta dati in CSVDB ID + tab da esportareExport ID + lista file CSV
read_crawl_dataLegge CSV con filtriExport ID + file + filtriDati tabulari filtrati
delete_crawlElimina un crawlDB IDConferma eliminazione
storage_summarySpazio disco usatoNessunoDimensione totale e per crawl

Il pattern di concatenazione

In un audit tipico, Claude Code esegue questa sequenza senza che io debba guidarlo passo per passo:

  1. sf_check — verifica che tutto sia operativo.
  2. crawl_site — lancia il crawl del dominio target.
  3. crawl_status — monitora il progresso (polling automatico per siti grandi).
  4. export_crawl — esporta tutti i tab rilevanti: Internal, Response Codes, Page Titles, Meta Description, H1, H2, Images, Directives, Canonicals.
  5. read_crawl_data — legge ciascun CSV, filtra per problemi (status 4xx/5xx, title mancanti, alt vuoti, canonical errati).
  6. Analisi incrociata — incrocia i dati tra tab diversi per identificare pattern.
  7. Report strutturato — produce un report con priorità, impatto stimato e azioni consigliate.

Tutto questo con un singolo prompt iniziale. Claude Code decide autonomamente quali tab esportare e quali filtri applicare in base a quello che trova progressivamente nei dati.

I tab di export più utili per l'audit

Non tutti i tab hanno lo stesso valore per ogni tipo di audit. Ecco come li uso in pratica.

TabCosa contieneProblemi che rileva
Internal:AllTutte le URL interne con status, tipo, dimensionePagine orfane, catene di redirect, errori server
Response Codes:AllStatus HTTP di ogni URLErrori 4xx/5xx, redirect temporanei (302) che dovrebbero essere 301
Page Titles:AllTitle tag con lunghezza e occorrenzeTitle mancanti, duplicati, troppo lunghi (>60 char) o troppo corti
Meta Description:AllMeta description con lunghezzaDescription mancanti, duplicate, fuori range (120-160 char)
H1:AllHeading H1 di ogni paginaH1 mancanti, duplicati, multipli sulla stessa pagina
H2:AllHeading H2 con gerarchiaGerarchia heading rotta, H2 prima di H1
Images:AllImmagini con alt, dimensione, formatoAlt mancanti, immagini troppo pesanti, formati obsoleti (BMP, TIFF)
Directives:AllMeta robots, X-Robots-Tag, canonicalPagine noindex per errore, canonical che puntano a URL sbagliate

Caso reale: audit completo di claudio-novaglio.com

Ho utilizzato questo setup sul mio stesso sito per due motivi: primo, per testare il workflow end-to-end; secondo, per avere un case study reale da mostrare. Ecco cosa è emerso dall'analisi.

Il crawl

Il sito ha circa 80 pagine indicizzabili tra homepage, pagine servizio, blog post, pagine FAQ e le landing page geo-targettizzate per i comuni bresciani. Il crawl completo ha richiesto meno di 2 minuti.

Il database generato pesa circa 15 MB — relativamente leggero perché il sito è snello e ben strutturato. Per un e-commerce con 10.000+ prodotti, il database può arrivare a diversi GB, ma il workflow resta lo stesso: cambia solo il tempo di crawl.

Risultati dell'analisi: cosa ha trovato Claude Code

Claude ha analizzato sistematicamente ogni tab esportato. Ecco il report sintetico.

Title tag: tutte le pagine hanno title unici e ben ottimizzati. Nessun duplicato, nessun title mancante. Le lunghezze sono nel range 30-60 caratteri, ottimale per la SERP. Claude ha anche verificato che i title contengano le keyword target principali per ciascuna pagina.

Meta description: presenti su tutte le pagine. Claude ha verificato che le lunghezze siano nel range 120-160 caratteri e che ogni description contenga una call-to-action implicita o un value proposition chiaro.

Struttura heading: ogni pagina ha esattamente un H1 unico. La gerarchia H1 > H2 > H3 è coerente su tutto il sito. Nessun caso di heading saltati (es. H1 seguito direttamente da H3).

Immagini: tutti gli attributi alt sono compilati. Le immagini sono servite da Sanity CDN in formato WebP con dimensioni ottimizzate. Nessuna immagine supera i 200 KB dopo la compressione.

Status code: nessun errore 4xx o 5xx sulle pagine interne. I redirect sono tutti 301 permanenti. Nessuna catena di redirect (A → B → C) — ogni redirect punta direttamente alla destinazione finale.

Directives: nessuna pagina bloccata accidentalmente con noindex. I canonical sono tutti self-referencing e coerenti con la sitemap XML. Le pagine che non devono essere indicizzate (es. /studio/) hanno correttamente noindex.

L'analisi incrociata: dove il valore si moltiplica

La parte più interessante dell'audit non è l'analisi singola di ogni tab, ma l'incrocio dei dati tra tab diversi. Questo è il tipo di analisi che richiede più tempo nel workflow manuale e che Claude Code fa in modo sistematico.

Esempi di verifiche incrociate che Claude ha eseguito automaticamente:

  • Status 200 + contenuto completo: verifica che ogni pagina con status 200 abbia title, description, H1 e almeno un'immagine con alt — non solo che i singoli campi esistano, ma che siano presenti insieme sulla stessa URL.
  • Canonical + sitemap: verifica che i canonical di ogni pagina corrispondano alle URL presenti nella sitemap e che non ci siano discrepanze.
  • Redirect + internal linking: verifica che nessun link interno punti a URL che fanno redirect — ogni link deve puntare alla URL finale.
  • Immagini + pagine: verifica che le pagine principali (servizi, blog post) abbiano almeno un'immagine, e che le immagini pesanti non siano nelle above-the-fold di pagine critiche.

Da analisi a correzione: Claude Code che modifica il codice

Questo è il punto dove il workflow MCP supera qualsiasi tool di audit tradizionale. Claude Code non si limita a produrre un report: può applicare le correzioni direttamente.

Quando Claude trova un problema nel crawl — un title troppo lungo, un alt mancante, un canonical errato — ha accesso al codice sorgente del sito. Può aprire il file, identificare la riga, proporre la modifica e applicarla. Il tutto nella stessa sessione di conversazione.

Esempio pratico: correzione di meta description

Supponiamo che il crawl rilevi una meta description troppo lunga (180 caratteri) su una pagina servizio. Nel workflow tradizionale: noti il problema nel CSV, apri il file nel tuo editor, trovi il campo, lo accorci, salvi. Con Claude Code MCP: nella stessa sessione dell'audit, Claude identifica il problema nel CSV, apre il file sorgente, legge il contesto della pagina, riscrive la description mantenendo il messaggio ma riducendo i caratteri, e applica la modifica — il tutto in secondi.

Esempio: fix di alt text mancanti su immagini

Le immagini senza alt text sono uno dei problemi SEO più comuni e più noiosi da risolvere. Con il workflow MCP, Claude identifica tutte le immagini con alt vuoto dal tab Images, poi per ciascuna: apre il file dove l'immagine è usata, legge il contesto della pagina e il contenuto circostante, genera un alt text descrittivo e pertinente, e lo inserisce nel codice.

Su un sito e-commerce con 500 immagini senza alt, questo processo che richiederebbe una giornata di lavoro manuale viene completato in pochi minuti.

Esempio: correzione di redirect chain

Le catene di redirect (A → B → C invece di A → C) rallentano il crawl di Googlebot e disperdono PageRank. Claude Code le identifica dal tab Response Codes, poi modifica la configurazione dei redirect (nel caso di Next.js, il file next.config) per far puntare ogni redirect direttamente alla destinazione finale.

Il ciclo crawl-fix-verify

Il pattern più potente è il ciclo completo: dopo aver applicato le correzioni, Claude Code può rilanciare un nuovo crawl per verificare che i problemi siano effettivamente risolti. Questo chiude il loop e garantisce che non ci siano regressioni.

  1. Crawl iniziale — identifica i problemi.
  2. Analisi — classifica per priorità e impatto.
  3. Fix — applica le correzioni al codice sorgente.
  4. Build — verifica che il sito compili senza errori dopo le modifiche.
  5. Deploy — pubblica le modifiche (opzionale, con conferma umana).
  6. Re-crawl — verifica che i problemi siano risolti.

Questo ciclo, che nel workflow tradizionale richiede giorni (tra audit, comunicazione col developer, implementazione e verifica), si completa in una singola sessione di 30-40 minuti.

Workflow schedulati: monitoraggio SEO continuo e autonomo

L'uso più avanzato di questo setup non è l'audit one-shot, ma il monitoraggio continuo. Con la giusta configurazione, puoi creare un sistema dove Claude Code e Screaming Frog lavorano in sinergia a intervalli regolari per mantenere il sito in salute.

L'architettura del monitoraggio automatico

L'idea è semplice: schedulare un crawl periodico (settimanale o bisettimanale), confrontare i risultati con il crawl precedente, identificare le regressioni e intervenire automaticamente dove possibile.

Il workflow schedulato si articola in questi passaggi:

  1. Crawl programmato — un cron job o task scheduler lancia il crawl a cadenza fissa.
  2. Export automatico — i dati vengono esportati negli stessi tab dell'audit iniziale.
  3. Confronto con baseline — Claude Code confronta i dati con il crawl precedente (la "baseline") e identifica le differenze.
  4. Classificazione delle regressioni — i nuovi problemi vengono classificati per gravità: critico (errori 5xx, pagine sparite), alto (redirect rotti, canonical errati), medio (description mancanti, alt vuoti), basso (warning, ottimizzazioni).
  5. Fix automatico per problemi noti — i problemi con pattern riconosciuti (alt mancanti, description troppo lunghe) vengono corretti automaticamente.
  6. Alert per problemi nuovi — i problemi che richiedono valutazione umana generano una notifica con contesto e suggerimenti.
  7. Report periodico — un riepilogo settimanale con lo stato di salute del sito, i problemi risolti e quelli in attesa.

Cosa può essere fixato automaticamente

Non tutti i problemi SEO possono (o devono) essere risolti senza supervisione umana. Ecco la mia classificazione pratica.

CategoriaFix automatico?EsempiMotivo
Alt text mancantiImmagini senza altClaude legge il contesto e genera alt pertinenti
Meta description lunghezzaDescription >160 o <80 charRiscrittura con mantenimento del messaggio
Redirect chainA→B→C da semplificare a A→CPattern deterministico, basso rischio
Title tag lunghezzaCon cautelaTitle >60 char troncato in SERPRichiede comprensione del contenuto
Canonical erratiNo — solo alertCanonical che punta a URL sbagliataImpatto alto, richiede verifica umana
Errori 5xxNo — solo alertServer error su pagine specificheCausa può essere infrastrutturale
Pagine noindex per erroreNo — solo alertPagina importante con noindexRischio di deindicizzazione se sbagliato
Nuove pagine 404No — solo alertURL che prima funzionavanoServe capire se è intenzionale o bug

Il ruolo delle skill di Claude Code

Per rendere il workflow schedulato affidabile e coerente, è fondamentale usare le skill di Claude Code. Una skill è una documentazione strutturata che guida il comportamento di Claude in scenari specifici — in pratica, è come scrivere le istruzioni operative per un collaboratore molto competente.

Ho scritto un articolo dedicato su come creare skill personalizzate per Claude Code in ottica SEO. Lì entro nel dettaglio della struttura, del testing e dei pattern avanzati.

Per il workflow Screaming Frog, la skill definisce: quali tab esportare per default, le soglie di alert (es. title >55 char = warning, >65 = errore), i pattern di fix automatico con le relative regole, e il formato del report da generare. Senza la skill, Claude Code fa un ottimo lavoro ma non è consistente tra sessioni diverse. Con la skill, ogni audit segue lo stesso processo rigoroso.

Confronto con il monitoraggio tradizionale

AspettoMonitoraggio tradizionaleMCP + Claude Code schedulato
FrequenzaMensile (se va bene)Settimanale o bisettimanale, automatico
Tempo per ciclo2-4 ore per audit + report15-20 minuti, di cui la maggior parte è il crawl
Fix delle regressioniApri ticket, aspetta il developerFix automatico per problemi standard
Confronto con baselineManuale in spreadsheetAutomatico, diff strutturato
CoperturaSpesso si analizzano solo le pagine topOgni URL viene verificata, sempre
Costo operativoOre di consulente + ore di developerSolo il costo dell'infrastruttura (100$/mese)

Perché questo approccio è superiore: i numeri

Velocità

Un audit tecnico completo che normalmente richiede 2-3 ore di lavoro manuale (crawl, export, analisi in spreadsheet, stesura del report) si riduce a 15-20 minuti con l'automazione MCP. Se aggiungi la fase di fix, il confronto è ancora più netto: quello che prima richiedeva giorni (audit + comunicazione + implementazione + verifica) si chiude in una singola sessione di 30-40 minuti.

Profondità e sistematicità

Claude Code non si stanca, non salta righe e non fa shortcut sotto pressione. Analizza ogni URL, ogni meta tag, ogni immagine. Incrocia sistematicamente i dati tra tab diversi — per esempio, verifica che le pagine con status 200 abbiano effettivamente title, description e H1 compilati. Questo tipo di analisi incrociata è il primo a saltare nel workflow manuale quando si lavora sotto deadline.

Contestualizzazione

Il report non è una lista generica di best practice. Claude conosce il contesto del sito — tipo di business, struttura delle URL, target locale, tecnologie usate (Next.js, Sanity CMS) — e adatta le raccomandazioni di conseguenza. Un sito e-commerce riceverà suggerimenti diversi da un sito di servizi professionali. Un sito multi-lingua avrà check specifici sugli hreflang. Un sito con landing page locali (come il mio) avrà verifiche sulla coerenza dei canonical e dei contenuti geo-targettizzati.

Ciclo chiuso

Il vantaggio più grande: il ciclo è chiuso. Non c'è il gap tra "il consulente identifica il problema" e "il developer lo risolve". Claude Code è sia l'analista che l'implementatore. Questo elimina i problemi di comunicazione, i ritardi e il rischio che il fix venga implementato in modo diverso da come era stato pensato.

Limiti, rischi e considerazioni pratiche

Sarebbe disonesto presentare questo workflow come perfetto. Ci sono limiti reali e rischi da gestire.

Limiti tecnici

  • Crawl locale: Screaming Frog gira sulla tua macchina. Per siti molto grandi (100k+ URL) servono RAM e CPU adeguati. Il crawl di un e-commerce con 50.000 prodotti può richiedere 30-60 minuti e diversi GB di RAM.
  • GUI e CLI mutualmente esclusive: non puoi avere la GUI di Screaming Frog aperta mentre usi il MCP. Se dimentichi di chiuderla, il crawl fallisce.
  • Limite di export simultanei: il server MCP gestisce fino a 10 export attivi con pulizia automatica dopo un'ora. Per sessioni intensive, può servire pulizia manuale.
  • Dipendenza dalla rete: Claude Code Max richiede connessione internet. Per il crawl locale no, ma per l'analisi AI sì.

Rischi dei fix automatici

Il rischio principale dei fix automatici è applicare modifiche sbagliate su pagine ad alto valore. Per questo il mio workflow prevede tre livelli di guardia.

  1. Classificazione del rischio — i fix vengono classificati come "sicuri" (alt text, description length) o "rischiosi" (canonical, noindex). Solo i fix sicuri vengono applicati automaticamente.
  2. Conferma umana per fix critici — qualsiasi modifica che tocca canonical, redirect o directives richiede approvazione esplicita.
  3. Git come safety net — ogni fix viene committato separatamente con un messaggio descrittivo. Se qualcosa va storto, il rollback è un singolo "git revert".

Quando NON usare questo workflow

  • Per siti che non gestisci direttamente — se non hai accesso al codice sorgente, il ciclo si interrompe alla fase di analisi.
  • Per audit di siti competitor — utile per l'analisi, ma ovviamente non puoi applicare fix.
  • Come sostituto della strategia SEO — questo workflow ottimizza la parte tecnica. La strategia di contenuto, il link building e la keyword research richiedono altri strumenti e approcci.

Confronto dettagliato: tre paradigmi a confronto

Per dare una visione completa, confronto tre approcci: il workflow completamente manuale, l'approccio "AI-assisted" (export manuale + analisi AI) e il workflow MCP completo.

FaseManualeAI-assistedMCP + Claude Code
Lancio crawlGUI, configura, clickGUI, configura, clickUn messaggio in chat
MonitoraggioGuardo la GUIGuardo la GUIPolling automatico
ExportMenu > Export > tab > salvaMenu > Export > tab > salvaAutomatico dopo il crawl
Analisi baseExcel, filtra, cerca patternCopio CSV in ChatGPTClaude analizza in real-time
Analisi incrociataVLOOKUP tra fogliPrompt specifici per incrocioAutomatica e sistematica
ReportScrivo in Google DocsChatGPT genera bozzaGenerato con priorità e contesto
FixApro editor, modificoApro editor, modificoClaude modifica il codice
Verifica fixRi-crawl manualeRi-crawl manualeRe-crawl automatico
Monitoraggio continuoDevo ricordarmiDevo ricordarmiSchedulato e automatico
Tempo totale (audit)2-3 ore1-1.5 ore15-20 minuti
Tempo totale (con fix)1-3 giorni3-5 ore30-40 minuti

Per chi è adatto e prerequisiti di competenza

Questo non è uno strumento per principianti. Per trarne il massimo, serve già una buona comprensione della SEO tecnica e dell'architettura web. Claude amplifica le tue competenze, non le sostituisce.

Prerequisiti

  • Comprensione solida di HTTP status codes, redirect, canonical, robots.txt e sitemap.
  • Esperienza con Screaming Frog — devi sapere cosa significano i dati che stai analizzando.
  • Familiarità con il terminale — Claude Code è un tool da CLI, non ha interfaccia grafica.
  • Comprensione base di Git — i fix automatici usano Git per il versionamento e il rollback.
  • Conoscenza del framework del tuo sito — devi capire dove e come applicare le modifiche.

Target ideale

  • SEO specialist e consulenti che fanno audit regolari per più clienti — il risparmio di tempo scala linearmente.
  • Agency che vogliono offrire audit tecnici come servizio scalabile senza aumentare l'organico.
  • Developer e technical SEO che gestiscono siti propri e vogliono un monitoraggio continuo con effort minimo.
  • Team marketing interni in aziende tech che hanno accesso al codebase e vogliono autonomia sulla SEO tecnica.

Prossimi sviluppi: dove sto portando questo workflow

Il setup attuale è già produttivo, ma ho in mente diverse evoluzioni.

  • Integrazione con Google Search Console: incrociare i dati di crawl con i dati di performance reale (impressioni, click, CTR, posizione media) per prioritizzare i fix sulle pagine che hanno il maggior potenziale di crescita.
  • Pre-deploy hook: lanciare un crawl automatico in staging prima di ogni deploy in produzione, confrontare con la baseline e bloccare il deploy se vengono rilevate regressioni critiche.
  • Multi-sito: gestire i crawl di più siti da un'unica sessione Claude Code, con report comparativi e dashboard centralizzata.
  • Log strutturato: salvare ogni audit in formato strutturato (JSON) per costruire uno storico e tracciare l'evoluzione della salute tecnica del sito nel tempo.

Conclusione: dall'audit al sistema autonomo

L'integrazione tra Screaming Frog e Claude Code via MCP non è solo un modo più veloce di fare audit. È un cambio di paradigma: passiamo dall'audit come attività puntuale (una volta al mese, se va bene) a un sistema di monitoraggio continuo che identifica, classifica e risolve problemi tecnici in modo semi-autonomo.

La chiave è che il ciclo è chiuso. Non c'è più il gap tra analisi e implementazione, tra consulente e developer, tra report e fix. Claude Code vede il problema, capisce il contesto, applica la correzione e verifica il risultato — tutto in una singola sessione.

Screaming Frog resta il crawler più completo sul mercato. Claude Code porta la capacità di ragionamento, analisi incrociata e implementazione che prima richiedeva ore di lavoro umano. Insieme, non solo accelerano il lavoro: rendono possibile un livello di monitoraggio che nel workflow tradizionale sarebbe economicamente insostenibile.

Se vuoi approfondire come costruisco skill personalizzate per automatizzare workflow SEO con Claude Code, leggi il mio articolo su come creare skill SEO per Claude Code.

Per discutere di come questo approccio potrebbe funzionare per il tuo progetto, contattami per una consulenza. Lavoro con aziende e professionisti che vogliono portare la SEO tecnica a un livello superiore.

Domande Frequenti

È un server open source che implementa il Model Context Protocol di Anthropic, permettendo a Claude Code di controllare Screaming Frog CLI programmaticamente. Consente di lanciare crawl, esportare dati e analizzare risultati direttamente dalla conversazione con l'AI, senza usare l'interfaccia grafica.

Sì. Claude Code ha accesso sia ai dati del crawl (via MCP) sia al codice sorgente del sito. Quando identifica un problema — un alt mancante, un title troppo lungo, un redirect chain — può aprire il file, applicare la correzione e verificare che il build funzioni. I fix vengono committati in Git per un facile rollback se necessario.

Sì. Il workflow può essere schedulato con cron job o task scheduler. Claude Code lancia il crawl, confronta i risultati con la baseline del crawl precedente, identifica le regressioni e applica fix automatici per i problemi standard (alt text, meta description). I problemi critici generano un alert per la revisione umana.

La versione gratuita ha un limite di 500 URL per crawl. Per siti più grandi serve la licenza (259 sterline/anno). Il server MCP è open source e gratuito. Claude Code Max costa 100 dollari al mese ed è necessario per il supporto MCP.

Fix automatici: alt text mancanti, meta description fuori range, redirect chain, title troppo lunghi. Fix con conferma umana: canonical errati, directive noindex, errori 5xx, pagine 404 nuove. La classificazione si basa sul rischio di impatto negativo se il fix fosse sbagliato.

Sì. Screaming Frog è disponibile per Windows, Mac e Linux. Il server MCP funziona su tutti i sistemi operativi. L'unica differenza è il percorso dell'eseguibile CLI nella configurazione.

No. Questo workflow automatizza la parte tecnica dell'audit: crawl, analisi on-page, fix di problemi strutturali. La strategia SEO — keyword research, content strategy, link building, analisi competitiva — richiede competenze e giudizio umano che vanno oltre l'automazione tecnica.

Sull'autore

Claudio Novaglio

Claudio Novaglio

SEO Specialist, AI Specialist e Data Analyst con oltre 10 anni di esperienza nel digital marketing. Lavoro con aziende e professionisti a Brescia e in tutta Italia per aumentare la visibilità organica, ottimizzare le campagne pubblicitarie e costruire sistemi di misurazione data-driven. Specializzato in SEO tecnico, local SEO, Google Analytics 4 e integrazione dell'intelligenza artificiale nei processi di marketing.

Vuoi migliorare i tuoi risultati online?

Parliamo del tuo progetto. La prima consulenza è gratuita, senza impegno.