Screaming Frog + Claude Code: Come Uso l'AI per Automatizzare l'Audit SEO Tecnico

Screaming Frog e Claude Code connessi via MCP: audit SEO tecnico automatizzato, correzioni applicate in tempo reale e workflow schedulati che mantengono il sito in salute — tutto dal terminale.
In questo articolo mostro come ho configurato e utilizzato il server MCP di Screaming Frog all'interno di Claude Code Max per analizzare il mio stesso sito, claudio-novaglio.com. Non mi limito a raccontare l'analisi: mostro come Claude Code può correggere i problemi trovati, e come ho costruito un sistema di monitoraggio automatico che rileva e risolve regressioni SEO prima che impattino il ranking.
Se lavori nella SEO tecnica e stai cercando un modo per passare da "analisi manuale + spreadsheet" a un workflow completamente autonomo, questo articolo fa per te. Non è un tutorial da 5 minuti: è il documento operativo di come lavoro sui miei progetti.
Cos'è il protocollo MCP e perché cambia il gioco per la SEO tecnica
MCP sta per Model Context Protocol. È uno standard aperto, sviluppato da Anthropic, che permette ai modelli AI di comunicare direttamente con strumenti esterni — database, API, software desktop — attraverso un'interfaccia strutturata e bidirezionale.
La differenza rispetto al classico "copia i dati da Screaming Frog e incollali in ChatGPT" è fondamentale: con MCP il modello AI non riceve dati passivamente. Può lanciare un crawl, attendere il completamento, esportare i risultati, filtrarli, analizzarli e — questa è la parte cruciale — agire sui problemi trovati modificando direttamente il codice del sito.
Non è un'automazione "cieca". Claude Code ragiona sui dati, capisce il contesto del sito, e prende decisioni informate su cosa correggere e come. Il risultato è un ciclo chiuso: crawl → analisi → fix → verifica — senza che io tocchi un singolo file manualmente.
Come funziona tecnicamente
Il server MCP di Screaming Frog è un processo che gira in background sulla tua macchina. Quando Claude Code ha bisogno di dati SEO, invia una richiesta al server MCP, che a sua volta chiama Screaming Frog CLI. I risultati tornano a Claude Code in formato strutturato.
Questo significa che Claude Code non "vede" l'interfaccia grafica di Screaming Frog. Non simula click. Usa la CLI direttamente, che è più veloce, più affidabile e completamente scriptabile. I dati vengono esportati in CSV e letti programmaticamente, con possibilità di filtraggio per colonna e paginazione per gestire dataset grandi.
Setup completo: dall'installazione al primo crawl
Requisiti di sistema
| Componente | Dettaglio | Costo |
|---|---|---|
| Claude Code Max | Piano Anthropic da 100$/mese — necessario per supporto MCP | 100$/mese |
| Screaming Frog SEO Spider | Installato localmente, licenza attiva (500 URL nella versione free) | 0-259$/anno |
| screaming-frog-mcp | Server MCP open source (Python/uvx) | Gratuito |
| Node.js / Python | Runtime per il server MCP e gli script di automazione | Gratuito |
Il costo effettivo è 100 dollari al mese per Claude Code Max più la licenza Screaming Frog se la usi già. Se fai anche solo 4 audit al mese, il risparmio di tempo rispetto al workflow manuale ripaga l'investimento dal primo mese.
Configurazione del server MCP
Il server MCP si installa come pacchetto Python via uvx. La configurazione va nel file .mcp.json nella directory di Claude Code. Bisogna specificare il percorso esatto dell'eseguibile CLI di Screaming Frog.
Su Windows il percorso tipico è "C:\Program Files (x86)\Screaming Frog SEO Spider\ScreamingFrogSEOSpiderCli.exe". Su Mac si usa il path dell'app bundle. Su Linux dipende dal metodo di installazione.
Un dettaglio importante: la GUI e la CLI di Screaming Frog non possono girare contemporaneamente. Se hai l'interfaccia grafica aperta, il crawl via MCP fallirà con un errore esplicito. Il server MCP fa un check automatico e ti avvisa prima di tentare il crawl.
Altro dettaglio tecnico che ho scoperto lavorandoci: Screaming Frog salva il database dei crawl in una directory specifica (su Windows è sotto .ScreamingFrogSEOSpider nella home dell'utente). Il server MCP gestisce fino a 10 export simultanei con un TTL di un'ora per la pulizia automatica. Per sessioni intensive con molti crawl, è utile sapere dove pulire manualmente se necessario.
Gli 8 tool MCP: cosa fa ciascuno e come concatenarli
Il server MCP espone 8 strumenti che coprono l'intero ciclo di un audit SEO tecnico. Ma il vero potere non sta nei singoli tool: sta nel modo in cui Claude Code li concatena autonomamente.
| Tool | Funzione | Input chiave | Output |
|---|---|---|---|
| sf_check | Verifica installazione SF | Nessuno | Versione e stato CLI |
| crawl_site | Lancia crawl di un dominio | URL del sito | ID del crawl + stato |
| crawl_status | Monitora crawl in corso | Crawl ID | Stato, URL crawlate, tempo |
| list_crawls | Elenca crawl salvati | Nessuno | Lista con ID, nome, dimensione |
| export_crawl | Esporta dati in CSV | DB ID + tab da esportare | Export ID + lista file CSV |
| read_crawl_data | Legge CSV con filtri | Export ID + file + filtri | Dati tabulari filtrati |
| delete_crawl | Elimina un crawl | DB ID | Conferma eliminazione |
| storage_summary | Spazio disco usato | Nessuno | Dimensione totale e per crawl |
Il pattern di concatenazione
In un audit tipico, Claude Code esegue questa sequenza senza che io debba guidarlo passo per passo:
- sf_check — verifica che tutto sia operativo.
- crawl_site — lancia il crawl del dominio target.
- crawl_status — monitora il progresso (polling automatico per siti grandi).
- export_crawl — esporta tutti i tab rilevanti: Internal, Response Codes, Page Titles, Meta Description, H1, H2, Images, Directives, Canonicals.
- read_crawl_data — legge ciascun CSV, filtra per problemi (status 4xx/5xx, title mancanti, alt vuoti, canonical errati).
- Analisi incrociata — incrocia i dati tra tab diversi per identificare pattern.
- Report strutturato — produce un report con priorità, impatto stimato e azioni consigliate.
Tutto questo con un singolo prompt iniziale. Claude Code decide autonomamente quali tab esportare e quali filtri applicare in base a quello che trova progressivamente nei dati.
I tab di export più utili per l'audit
Non tutti i tab hanno lo stesso valore per ogni tipo di audit. Ecco come li uso in pratica.
| Tab | Cosa contiene | Problemi che rileva |
|---|---|---|
| Internal:All | Tutte le URL interne con status, tipo, dimensione | Pagine orfane, catene di redirect, errori server |
| Response Codes:All | Status HTTP di ogni URL | Errori 4xx/5xx, redirect temporanei (302) che dovrebbero essere 301 |
| Page Titles:All | Title tag con lunghezza e occorrenze | Title mancanti, duplicati, troppo lunghi (>60 char) o troppo corti |
| Meta Description:All | Meta description con lunghezza | Description mancanti, duplicate, fuori range (120-160 char) |
| H1:All | Heading H1 di ogni pagina | H1 mancanti, duplicati, multipli sulla stessa pagina |
| H2:All | Heading H2 con gerarchia | Gerarchia heading rotta, H2 prima di H1 |
| Images:All | Immagini con alt, dimensione, formato | Alt mancanti, immagini troppo pesanti, formati obsoleti (BMP, TIFF) |
| Directives:All | Meta robots, X-Robots-Tag, canonical | Pagine noindex per errore, canonical che puntano a URL sbagliate |
Caso reale: audit completo di claudio-novaglio.com
Ho utilizzato questo setup sul mio stesso sito per due motivi: primo, per testare il workflow end-to-end; secondo, per avere un case study reale da mostrare. Ecco cosa è emerso dall'analisi.
Il crawl
Il sito ha circa 80 pagine indicizzabili tra homepage, pagine servizio, blog post, pagine FAQ e le landing page geo-targettizzate per i comuni bresciani. Il crawl completo ha richiesto meno di 2 minuti.
Il database generato pesa circa 15 MB — relativamente leggero perché il sito è snello e ben strutturato. Per un e-commerce con 10.000+ prodotti, il database può arrivare a diversi GB, ma il workflow resta lo stesso: cambia solo il tempo di crawl.
Risultati dell'analisi: cosa ha trovato Claude Code
Claude ha analizzato sistematicamente ogni tab esportato. Ecco il report sintetico.
Title tag: tutte le pagine hanno title unici e ben ottimizzati. Nessun duplicato, nessun title mancante. Le lunghezze sono nel range 30-60 caratteri, ottimale per la SERP. Claude ha anche verificato che i title contengano le keyword target principali per ciascuna pagina.
Meta description: presenti su tutte le pagine. Claude ha verificato che le lunghezze siano nel range 120-160 caratteri e che ogni description contenga una call-to-action implicita o un value proposition chiaro.
Struttura heading: ogni pagina ha esattamente un H1 unico. La gerarchia H1 > H2 > H3 è coerente su tutto il sito. Nessun caso di heading saltati (es. H1 seguito direttamente da H3).
Immagini: tutti gli attributi alt sono compilati. Le immagini sono servite da Sanity CDN in formato WebP con dimensioni ottimizzate. Nessuna immagine supera i 200 KB dopo la compressione.
Status code: nessun errore 4xx o 5xx sulle pagine interne. I redirect sono tutti 301 permanenti. Nessuna catena di redirect (A → B → C) — ogni redirect punta direttamente alla destinazione finale.
Directives: nessuna pagina bloccata accidentalmente con noindex. I canonical sono tutti self-referencing e coerenti con la sitemap XML. Le pagine che non devono essere indicizzate (es. /studio/) hanno correttamente noindex.
L'analisi incrociata: dove il valore si moltiplica
La parte più interessante dell'audit non è l'analisi singola di ogni tab, ma l'incrocio dei dati tra tab diversi. Questo è il tipo di analisi che richiede più tempo nel workflow manuale e che Claude Code fa in modo sistematico.
Esempi di verifiche incrociate che Claude ha eseguito automaticamente:
- Status 200 + contenuto completo: verifica che ogni pagina con status 200 abbia title, description, H1 e almeno un'immagine con alt — non solo che i singoli campi esistano, ma che siano presenti insieme sulla stessa URL.
- Canonical + sitemap: verifica che i canonical di ogni pagina corrispondano alle URL presenti nella sitemap e che non ci siano discrepanze.
- Redirect + internal linking: verifica che nessun link interno punti a URL che fanno redirect — ogni link deve puntare alla URL finale.
- Immagini + pagine: verifica che le pagine principali (servizi, blog post) abbiano almeno un'immagine, e che le immagini pesanti non siano nelle above-the-fold di pagine critiche.
Da analisi a correzione: Claude Code che modifica il codice
Questo è il punto dove il workflow MCP supera qualsiasi tool di audit tradizionale. Claude Code non si limita a produrre un report: può applicare le correzioni direttamente.
Quando Claude trova un problema nel crawl — un title troppo lungo, un alt mancante, un canonical errato — ha accesso al codice sorgente del sito. Può aprire il file, identificare la riga, proporre la modifica e applicarla. Il tutto nella stessa sessione di conversazione.
Esempio pratico: correzione di meta description
Supponiamo che il crawl rilevi una meta description troppo lunga (180 caratteri) su una pagina servizio. Nel workflow tradizionale: noti il problema nel CSV, apri il file nel tuo editor, trovi il campo, lo accorci, salvi. Con Claude Code MCP: nella stessa sessione dell'audit, Claude identifica il problema nel CSV, apre il file sorgente, legge il contesto della pagina, riscrive la description mantenendo il messaggio ma riducendo i caratteri, e applica la modifica — il tutto in secondi.
Esempio: fix di alt text mancanti su immagini
Le immagini senza alt text sono uno dei problemi SEO più comuni e più noiosi da risolvere. Con il workflow MCP, Claude identifica tutte le immagini con alt vuoto dal tab Images, poi per ciascuna: apre il file dove l'immagine è usata, legge il contesto della pagina e il contenuto circostante, genera un alt text descrittivo e pertinente, e lo inserisce nel codice.
Su un sito e-commerce con 500 immagini senza alt, questo processo che richiederebbe una giornata di lavoro manuale viene completato in pochi minuti.
Esempio: correzione di redirect chain
Le catene di redirect (A → B → C invece di A → C) rallentano il crawl di Googlebot e disperdono PageRank. Claude Code le identifica dal tab Response Codes, poi modifica la configurazione dei redirect (nel caso di Next.js, il file next.config) per far puntare ogni redirect direttamente alla destinazione finale.
Il ciclo crawl-fix-verify
Il pattern più potente è il ciclo completo: dopo aver applicato le correzioni, Claude Code può rilanciare un nuovo crawl per verificare che i problemi siano effettivamente risolti. Questo chiude il loop e garantisce che non ci siano regressioni.
- Crawl iniziale — identifica i problemi.
- Analisi — classifica per priorità e impatto.
- Fix — applica le correzioni al codice sorgente.
- Build — verifica che il sito compili senza errori dopo le modifiche.
- Deploy — pubblica le modifiche (opzionale, con conferma umana).
- Re-crawl — verifica che i problemi siano risolti.
Questo ciclo, che nel workflow tradizionale richiede giorni (tra audit, comunicazione col developer, implementazione e verifica), si completa in una singola sessione di 30-40 minuti.
Workflow schedulati: monitoraggio SEO continuo e autonomo
L'uso più avanzato di questo setup non è l'audit one-shot, ma il monitoraggio continuo. Con la giusta configurazione, puoi creare un sistema dove Claude Code e Screaming Frog lavorano in sinergia a intervalli regolari per mantenere il sito in salute.
L'architettura del monitoraggio automatico
L'idea è semplice: schedulare un crawl periodico (settimanale o bisettimanale), confrontare i risultati con il crawl precedente, identificare le regressioni e intervenire automaticamente dove possibile.
Il workflow schedulato si articola in questi passaggi:
- Crawl programmato — un cron job o task scheduler lancia il crawl a cadenza fissa.
- Export automatico — i dati vengono esportati negli stessi tab dell'audit iniziale.
- Confronto con baseline — Claude Code confronta i dati con il crawl precedente (la "baseline") e identifica le differenze.
- Classificazione delle regressioni — i nuovi problemi vengono classificati per gravità: critico (errori 5xx, pagine sparite), alto (redirect rotti, canonical errati), medio (description mancanti, alt vuoti), basso (warning, ottimizzazioni).
- Fix automatico per problemi noti — i problemi con pattern riconosciuti (alt mancanti, description troppo lunghe) vengono corretti automaticamente.
- Alert per problemi nuovi — i problemi che richiedono valutazione umana generano una notifica con contesto e suggerimenti.
- Report periodico — un riepilogo settimanale con lo stato di salute del sito, i problemi risolti e quelli in attesa.
Cosa può essere fixato automaticamente
Non tutti i problemi SEO possono (o devono) essere risolti senza supervisione umana. Ecco la mia classificazione pratica.
| Categoria | Fix automatico? | Esempi | Motivo |
|---|---|---|---|
| Alt text mancanti | Sì | Immagini senza alt | Claude legge il contesto e genera alt pertinenti |
| Meta description lunghezza | Sì | Description >160 o <80 char | Riscrittura con mantenimento del messaggio |
| Redirect chain | Sì | A→B→C da semplificare a A→C | Pattern deterministico, basso rischio |
| Title tag lunghezza | Con cautela | Title >60 char troncato in SERP | Richiede comprensione del contenuto |
| Canonical errati | No — solo alert | Canonical che punta a URL sbagliata | Impatto alto, richiede verifica umana |
| Errori 5xx | No — solo alert | Server error su pagine specifiche | Causa può essere infrastrutturale |
| Pagine noindex per errore | No — solo alert | Pagina importante con noindex | Rischio di deindicizzazione se sbagliato |
| Nuove pagine 404 | No — solo alert | URL che prima funzionavano | Serve capire se è intenzionale o bug |
Il ruolo delle skill di Claude Code
Per rendere il workflow schedulato affidabile e coerente, è fondamentale usare le skill di Claude Code. Una skill è una documentazione strutturata che guida il comportamento di Claude in scenari specifici — in pratica, è come scrivere le istruzioni operative per un collaboratore molto competente.
Ho scritto un articolo dedicato su come creare skill personalizzate per Claude Code in ottica SEO. Lì entro nel dettaglio della struttura, del testing e dei pattern avanzati.
Per il workflow Screaming Frog, la skill definisce: quali tab esportare per default, le soglie di alert (es. title >55 char = warning, >65 = errore), i pattern di fix automatico con le relative regole, e il formato del report da generare. Senza la skill, Claude Code fa un ottimo lavoro ma non è consistente tra sessioni diverse. Con la skill, ogni audit segue lo stesso processo rigoroso.
Confronto con il monitoraggio tradizionale
| Aspetto | Monitoraggio tradizionale | MCP + Claude Code schedulato |
|---|---|---|
| Frequenza | Mensile (se va bene) | Settimanale o bisettimanale, automatico |
| Tempo per ciclo | 2-4 ore per audit + report | 15-20 minuti, di cui la maggior parte è il crawl |
| Fix delle regressioni | Apri ticket, aspetta il developer | Fix automatico per problemi standard |
| Confronto con baseline | Manuale in spreadsheet | Automatico, diff strutturato |
| Copertura | Spesso si analizzano solo le pagine top | Ogni URL viene verificata, sempre |
| Costo operativo | Ore di consulente + ore di developer | Solo il costo dell'infrastruttura (100$/mese) |
Perché questo approccio è superiore: i numeri
Velocità
Un audit tecnico completo che normalmente richiede 2-3 ore di lavoro manuale (crawl, export, analisi in spreadsheet, stesura del report) si riduce a 15-20 minuti con l'automazione MCP. Se aggiungi la fase di fix, il confronto è ancora più netto: quello che prima richiedeva giorni (audit + comunicazione + implementazione + verifica) si chiude in una singola sessione di 30-40 minuti.
Profondità e sistematicità
Claude Code non si stanca, non salta righe e non fa shortcut sotto pressione. Analizza ogni URL, ogni meta tag, ogni immagine. Incrocia sistematicamente i dati tra tab diversi — per esempio, verifica che le pagine con status 200 abbiano effettivamente title, description e H1 compilati. Questo tipo di analisi incrociata è il primo a saltare nel workflow manuale quando si lavora sotto deadline.
Contestualizzazione
Il report non è una lista generica di best practice. Claude conosce il contesto del sito — tipo di business, struttura delle URL, target locale, tecnologie usate (Next.js, Sanity CMS) — e adatta le raccomandazioni di conseguenza. Un sito e-commerce riceverà suggerimenti diversi da un sito di servizi professionali. Un sito multi-lingua avrà check specifici sugli hreflang. Un sito con landing page locali (come il mio) avrà verifiche sulla coerenza dei canonical e dei contenuti geo-targettizzati.
Ciclo chiuso
Il vantaggio più grande: il ciclo è chiuso. Non c'è il gap tra "il consulente identifica il problema" e "il developer lo risolve". Claude Code è sia l'analista che l'implementatore. Questo elimina i problemi di comunicazione, i ritardi e il rischio che il fix venga implementato in modo diverso da come era stato pensato.
Limiti, rischi e considerazioni pratiche
Sarebbe disonesto presentare questo workflow come perfetto. Ci sono limiti reali e rischi da gestire.
Limiti tecnici
- Crawl locale: Screaming Frog gira sulla tua macchina. Per siti molto grandi (100k+ URL) servono RAM e CPU adeguati. Il crawl di un e-commerce con 50.000 prodotti può richiedere 30-60 minuti e diversi GB di RAM.
- GUI e CLI mutualmente esclusive: non puoi avere la GUI di Screaming Frog aperta mentre usi il MCP. Se dimentichi di chiuderla, il crawl fallisce.
- Limite di export simultanei: il server MCP gestisce fino a 10 export attivi con pulizia automatica dopo un'ora. Per sessioni intensive, può servire pulizia manuale.
- Dipendenza dalla rete: Claude Code Max richiede connessione internet. Per il crawl locale no, ma per l'analisi AI sì.
Rischi dei fix automatici
Il rischio principale dei fix automatici è applicare modifiche sbagliate su pagine ad alto valore. Per questo il mio workflow prevede tre livelli di guardia.
- Classificazione del rischio — i fix vengono classificati come "sicuri" (alt text, description length) o "rischiosi" (canonical, noindex). Solo i fix sicuri vengono applicati automaticamente.
- Conferma umana per fix critici — qualsiasi modifica che tocca canonical, redirect o directives richiede approvazione esplicita.
- Git come safety net — ogni fix viene committato separatamente con un messaggio descrittivo. Se qualcosa va storto, il rollback è un singolo "git revert".
Quando NON usare questo workflow
- Per siti che non gestisci direttamente — se non hai accesso al codice sorgente, il ciclo si interrompe alla fase di analisi.
- Per audit di siti competitor — utile per l'analisi, ma ovviamente non puoi applicare fix.
- Come sostituto della strategia SEO — questo workflow ottimizza la parte tecnica. La strategia di contenuto, il link building e la keyword research richiedono altri strumenti e approcci.
Confronto dettagliato: tre paradigmi a confronto
Per dare una visione completa, confronto tre approcci: il workflow completamente manuale, l'approccio "AI-assisted" (export manuale + analisi AI) e il workflow MCP completo.
| Fase | Manuale | AI-assisted | MCP + Claude Code |
|---|---|---|---|
| Lancio crawl | GUI, configura, click | GUI, configura, click | Un messaggio in chat |
| Monitoraggio | Guardo la GUI | Guardo la GUI | Polling automatico |
| Export | Menu > Export > tab > salva | Menu > Export > tab > salva | Automatico dopo il crawl |
| Analisi base | Excel, filtra, cerca pattern | Copio CSV in ChatGPT | Claude analizza in real-time |
| Analisi incrociata | VLOOKUP tra fogli | Prompt specifici per incrocio | Automatica e sistematica |
| Report | Scrivo in Google Docs | ChatGPT genera bozza | Generato con priorità e contesto |
| Fix | Apro editor, modifico | Apro editor, modifico | Claude modifica il codice |
| Verifica fix | Ri-crawl manuale | Ri-crawl manuale | Re-crawl automatico |
| Monitoraggio continuo | Devo ricordarmi | Devo ricordarmi | Schedulato e automatico |
| Tempo totale (audit) | 2-3 ore | 1-1.5 ore | 15-20 minuti |
| Tempo totale (con fix) | 1-3 giorni | 3-5 ore | 30-40 minuti |
Per chi è adatto e prerequisiti di competenza
Questo non è uno strumento per principianti. Per trarne il massimo, serve già una buona comprensione della SEO tecnica e dell'architettura web. Claude amplifica le tue competenze, non le sostituisce.
Prerequisiti
- Comprensione solida di HTTP status codes, redirect, canonical, robots.txt e sitemap.
- Esperienza con Screaming Frog — devi sapere cosa significano i dati che stai analizzando.
- Familiarità con il terminale — Claude Code è un tool da CLI, non ha interfaccia grafica.
- Comprensione base di Git — i fix automatici usano Git per il versionamento e il rollback.
- Conoscenza del framework del tuo sito — devi capire dove e come applicare le modifiche.
Target ideale
- SEO specialist e consulenti che fanno audit regolari per più clienti — il risparmio di tempo scala linearmente.
- Agency che vogliono offrire audit tecnici come servizio scalabile senza aumentare l'organico.
- Developer e technical SEO che gestiscono siti propri e vogliono un monitoraggio continuo con effort minimo.
- Team marketing interni in aziende tech che hanno accesso al codebase e vogliono autonomia sulla SEO tecnica.
Prossimi sviluppi: dove sto portando questo workflow
Il setup attuale è già produttivo, ma ho in mente diverse evoluzioni.
- Integrazione con Google Search Console: incrociare i dati di crawl con i dati di performance reale (impressioni, click, CTR, posizione media) per prioritizzare i fix sulle pagine che hanno il maggior potenziale di crescita.
- Pre-deploy hook: lanciare un crawl automatico in staging prima di ogni deploy in produzione, confrontare con la baseline e bloccare il deploy se vengono rilevate regressioni critiche.
- Multi-sito: gestire i crawl di più siti da un'unica sessione Claude Code, con report comparativi e dashboard centralizzata.
- Log strutturato: salvare ogni audit in formato strutturato (JSON) per costruire uno storico e tracciare l'evoluzione della salute tecnica del sito nel tempo.
Conclusione: dall'audit al sistema autonomo
L'integrazione tra Screaming Frog e Claude Code via MCP non è solo un modo più veloce di fare audit. È un cambio di paradigma: passiamo dall'audit come attività puntuale (una volta al mese, se va bene) a un sistema di monitoraggio continuo che identifica, classifica e risolve problemi tecnici in modo semi-autonomo.
La chiave è che il ciclo è chiuso. Non c'è più il gap tra analisi e implementazione, tra consulente e developer, tra report e fix. Claude Code vede il problema, capisce il contesto, applica la correzione e verifica il risultato — tutto in una singola sessione.
Screaming Frog resta il crawler più completo sul mercato. Claude Code porta la capacità di ragionamento, analisi incrociata e implementazione che prima richiedeva ore di lavoro umano. Insieme, non solo accelerano il lavoro: rendono possibile un livello di monitoraggio che nel workflow tradizionale sarebbe economicamente insostenibile.
Se vuoi approfondire come costruisco skill personalizzate per automatizzare workflow SEO con Claude Code, leggi il mio articolo su come creare skill SEO per Claude Code.
Per discutere di come questo approccio potrebbe funzionare per il tuo progetto, contattami per una consulenza. Lavoro con aziende e professionisti che vogliono portare la SEO tecnica a un livello superiore.
Domande Frequenti
È un server open source che implementa il Model Context Protocol di Anthropic, permettendo a Claude Code di controllare Screaming Frog CLI programmaticamente. Consente di lanciare crawl, esportare dati e analizzare risultati direttamente dalla conversazione con l'AI, senza usare l'interfaccia grafica.
Sì. Claude Code ha accesso sia ai dati del crawl (via MCP) sia al codice sorgente del sito. Quando identifica un problema — un alt mancante, un title troppo lungo, un redirect chain — può aprire il file, applicare la correzione e verificare che il build funzioni. I fix vengono committati in Git per un facile rollback se necessario.
Sì. Il workflow può essere schedulato con cron job o task scheduler. Claude Code lancia il crawl, confronta i risultati con la baseline del crawl precedente, identifica le regressioni e applica fix automatici per i problemi standard (alt text, meta description). I problemi critici generano un alert per la revisione umana.
La versione gratuita ha un limite di 500 URL per crawl. Per siti più grandi serve la licenza (259 sterline/anno). Il server MCP è open source e gratuito. Claude Code Max costa 100 dollari al mese ed è necessario per il supporto MCP.
Fix automatici: alt text mancanti, meta description fuori range, redirect chain, title troppo lunghi. Fix con conferma umana: canonical errati, directive noindex, errori 5xx, pagine 404 nuove. La classificazione si basa sul rischio di impatto negativo se il fix fosse sbagliato.
Sì. Screaming Frog è disponibile per Windows, Mac e Linux. Il server MCP funziona su tutti i sistemi operativi. L'unica differenza è il percorso dell'eseguibile CLI nella configurazione.
No. Questo workflow automatizza la parte tecnica dell'audit: crawl, analisi on-page, fix di problemi strutturali. La strategia SEO — keyword research, content strategy, link building, analisi competitiva — richiede competenze e giudizio umano che vanno oltre l'automazione tecnica.
Sull'autore
Claudio Novaglio
SEO Specialist, AI Specialist e Data Analyst con oltre 10 anni di esperienza nel digital marketing. Lavoro con aziende e professionisti a Brescia e in tutta Italia per aumentare la visibilità organica, ottimizzare le campagne pubblicitarie e costruire sistemi di misurazione data-driven. Specializzato in SEO tecnico, local SEO, Google Analytics 4 e integrazione dell'intelligenza artificiale nei processi di marketing.
Vuoi migliorare i tuoi risultati online?
Parliamo del tuo progetto. La prima consulenza è gratuita, senza impegno.