Perché il great content non basta più nell'AI search e cosa ti fa davvero citare

Seer Interactive ha pubblicato a settembre 2025 un dataset su 3.119 query e 25,1 milioni di impression organiche di 42 propri clienti. Il risultato è quello che chiunque lavori in SEO ormai si aspetta ma che vedere a quel livello di dettaglio fa comunque un certo effetto: dove appare un AI Overview, il CTR organico medio scende del 61% e quello a pagamento del 68%. Ahrefs a dicembre 2025 ha dato un dato simile su un campione molto più grande, ovvero un calo del 58% del CTR per la prima posizione organica quando sopra c'è la risposta AI.
Il problema vero per chi fa AI search SEO oggi non è il calo in sé. È che il vecchio modo di reagire al calo, cioè scrivere "great content" sempre più completo e approfondito sul proprio dominio, non sposta più l'ago come dieci anni fa. Il modello di visibilità è cambiato. Non basta più che il pezzo sia ottimo. Serve che sia distribuito, citabile e recuperabile da macchine che oggi decidono cosa leggere e cosa no al posto degli umani. Questa è la sostanza della cosiddetta GEO (Generative Engine Optimization), e in Italia "GEO generative engine optimization" come query è quadruplicata in dodici mesi secondo i dati Google Ads.
In questo articolo metto in fila cosa è cambiato concretamente nel 2026, perché il great content da solo non basta più, quali sono i tre asset che lo battono nei motori AI e cosa farei oggi se dovessi posizionare un sito da zero.
Cosa è cambiato nel modo in cui un contenuto diventa visibile
BrightEdge a febbraio 2026 ha rilasciato un dato che mette il quadro in proporzione: il 48% delle query su Google attiva un AI Overview, in crescita del 58% anno su anno. Sui verticali healthcare la presenza arriva all'88%, su education all'83%. Per chi scrive contenuti in nicchie informative, questa è la nuova normalità della SERP.
La parte interessante dello stesso studio è un'altra. Solo il 17% delle fonti citate negli AI Overview compare nella top 10 organica della stessa query. Misurando lo stesso indicatore in finestra di sedici mesi, BrightEdge ha registrato un overlap del 76% a luglio 2025 sceso al 38% a febbraio 2026: la SERP organica e l'insieme delle fonti che la macchina cita stanno divergendo a vista d'occhio. Stare primo organico non garantisce più di essere citato. Essere citato non richiede più di essere primo.
Aggiungi sopra il dato del Pew Research Center di marzo 2025 (900 adulti USA, 68.879 query analizzate, 12.593 con AI summary): l'8% degli utenti clicca su un link quando vede una risposta AI, contro il 15% senza. Solo l'1% interagisce con le citazioni esplicite della risposta. Stiamo parlando di un comportamento di lettura che paga la macchina, non più l'editore.
Per inquadrare il pezzo specifico su Google AI Overviews ho già scritto la guida a GEO, AI Overviews e content strategy nel 2026 che approfondisce il versante di Google. Qui il discorso è più ampio e include ChatGPT, Perplexity, Gemini.
Il modello "great content" e perché ha smesso di scalare
Il modello a cui ho visto credere quasi tutti per dieci anni si riassume così. Identifichi la query che ti interessa, leggi i primi dieci risultati, scrivi qualcosa di significativamente migliore (più completo, più aggiornato, più strutturato), guadagni link, sali. È la sintesi della skyscraper technique di Brian Dean, ma più in generale è la logica del pillar content e del topic cluster che Hubspot ha popolarizzato a partire dal 2017.
Quel modello aveva un presupposto implicito che oggi non regge più: c'è un essere umano che legge il tuo contenuto, lo confronta con altri, decide. Chi sta in mezzo fra la query e la decisione è Google con il suo ranking, ma il consumo finale è umano. Non è più così. Per una quota crescente delle query, quello che legge il tuo contenuto è prima un sistema di retrieval, che lo spezzetta in chunk, lo confronta vettorialmente con la domanda, e decide se citarne un pezzo dentro una risposta sintetica. Il lettore umano arriva dopo, se mai arriva.
Questo cambia il calcolo costi-benefici dello skyscraper. Un pezzo eccellente da 4.000 parole con 50 ore di lavoro restituisce molto meno di prima se il sistema AI ne estrae due frasi e ignora le altre 3.950 parole, e se il 92% degli utenti non clicca per leggerlo. Il problema non è la qualità in sé. Il problema è che il rendimento marginale della qualità intrinseca, scollegata dal contesto di citazione, è in calo.
Lo si vede anche nei dati di correlazione. Uno studio ConvertMate del 2026 su 80 milioni di citazioni e 10.000 domini ha misurato la correlazione tra segnali tradizionali e visibilità AI. Le brand mention sul web correlano 0,664 con la frequenza di citazione AI, mentre i backlink correlano molto più debolmente. Il contenuto aggiornato entro trenta giorni mostra un'associazione 3,2 volte più alta con la frequenza di citazione. È una correlazione, non un nesso causale dimostrato (non esclude confounder come l'autorità del dominio o la notorietà preesistente del brand), ma la direzione del segnale è coerente con quanto vediamo dagli altri studi. Detto in altre parole: la macchina sembra fidarsi di chi viene nominato nei posti dove gli umani parlano, più di chi accumula link e parole.
I tre asset che oggi battono il great content da solo
Quando un editore mi chiede su cosa investire ora che il vecchio playbook rende meno, la mia risposta operativa è che ci sono tre asset distinti su cui spostare attenzione e budget. Non sono alternativi al contenuto buono, sono il contenuto buono più qualcos'altro che prima si dava per scontato.
1. Distribuzione: il pezzo deve esistere fuori dal tuo dominio
I dati di Otterly AI di marzo 2026, primo studio su larga scala dedicato alle citazioni YouTube, mostrano che il 41% dei video YouTube citati nelle risposte AI ha meno di 1.000 visualizzazioni e che il 94% è long-form. Significa che il sistema AI privilegia la profondità informativa rispetto al consenso del pubblico. Un brand che pubblica esclusivamente sul proprio blog rinuncia a una superficie di visibilità che la macchina pesa molto.
Lo stesso vale per Reddit. Studi di Profound (gennaio 2026) e Wellows (febbraio 2026) misurano la quota di citazioni Reddit su Perplexity intorno al 31% e su ChatGPT in una banda volatile fra il 5% e il 14%. Il dettaglio rilevante riportato nell'analisi Profound è che la quasi totalità di queste citazioni punta a thread specifici, non a pagine del subreddit o a profili: la macchina cerca conversazioni autentiche con opinioni, non comunicati istituzionali.
L'implicazione è scomoda per chi fa content marketing tradizionale. Investire 30 ore in un articolo lungo sul tuo blog può rendere meno di investirne 10 nel tuo blog e 20 a far esistere quella stessa idea in un thread credibile su un forum di settore, in un video YouTube documentato, in un commento argomentato in una community professionale, in una citazione di un altro autore che parla del tuo lavoro.
2. Citabilità: il pezzo deve essere strutturato per essere estratto
Discovered Labs, in un'analisi multi-platform sulle citazioni di ChatGPT, Perplexity, Claude e Google AI Overviews pubblicata nel corso del 2026, segnala che Claude in particolare tende a premiare il contenuto strutturato in bullet point, con una probabilità di citazione superiore di un ordine del 30% rispetto a contenuto a sole frasi. Kevin Indig, sul suo Growth Memo nel 2025, ha mostrato che circa il 44% delle citazioni ChatGPT viene dal primo terzo del contenuto, su un campione di oltre 18.000 citazioni analizzate.
Tradotto in regole pratiche: la prima frase di ogni sezione deve rispondere alla domanda implicita dell'heading, i pronomi "questo", "quello", "esso" devono risolversi senza richiedere il contesto della sezione precedente, i dati numerici devono essere completi (numero, unità di misura, anno, fonte) e ogni paragrafo deve trattare un solo concetto. Sono regole che leggi spesso descritte come BLUF (bottom line up front) o "answer-first writing", e che oggi non sono più una preferenza editoriale, sono il prezzo del biglietto per essere estraibili.
3. Retrievability: il sito deve essere accessibile alle macchine giuste
La parte tecnica conta più di quanto sembri. Un sito che blocca i bot di OpenAI o di Anthropic nel robots.txt non viene mai visto dai sistemi di retrieval. Un sito con render JavaScript pesante senza fallback HTML restituisce ai crawler AI poco o nulla. I dati strutturati corretti (almeno schema Article e FAQPage, dove pertinente HowTo) rendono esplicita alla macchina la struttura del contenuto, cosa che i sistemi di chunking apprezzano. C'è anche una proposta emergente, llms.txt, pensata per dichiarare ai modelli quali contenuti sono autorevoli su un dominio: non è uno standard ufficiale e l'adozione è ancora limitata, ma sta entrando nei roadmap di alcuni publisher.
Su questo specifico aspetto ho scritto la guida a come funziona Googlebot e il rendering nel 2026 che vale anche come quadro generale per i bot di OpenAI, Anthropic e Perplexity, perché la logica di rendering è simile.
Come funziona davvero il retrieval negli answer engine
La pipeline di un answer engine moderno ha quattro stadi: decomposizione della query in sotto-query parallele, retrieval ibrido lessicale-semantico, ranking machine learning, generazione finale con citazioni. Faccio l'esempio di Perplexity perché è quello su cui ci sono più ricerche pubbliche, ma la logica è simile per ChatGPT Search e Google AI Mode. Capire questi quattro stadi è il modo più rapido per capire perché distribuzione, citabilità e retrievability pesano così tanto.
Quando arriva la query dell'utente, il sistema esegue una decomposizione in più sotto-query parallele. È la cosiddetta query fan-out: una domanda umana diventa più sotto-query mirate verso diverse fonti, da poche unità nelle query semplici fino a decine nelle query complesse o di ricerca. Per ogni sotto-query parte un primo round di retrieval che combina BM25 (matching lessicale classico) e dense embeddings (matching semantico, basato su distanza coseno fra i vettori). I candidati che escono dal primo round vanno a uno strato di ranking machine learning e a un passaggio di reranking con modelli più costosi (cross-encoder neurali o ensemble tipo XGBoost). Il sistema applica una soglia di qualità che fa cadere la maggior parte dei candidati. Quello che sopravvive entra nel context del modello generativo, che produce la risposta sintetica con citazioni.
Cosa significa per chi scrive. Significa che quello che la macchina vede non è la tua pagina intera. È un singolo passaggio, di solito un paragrafo o un blocco di lista, decontestualizzato. Se quel passaggio non è auto-portante, viene scartato. Se è auto-portante ma poco preciso (frasi vaghe, claim senza numero, pronomi non risolti), la soglia di qualità lo penalizza nel reranking.
Per la parte di keyword research adattata alla logica del query fan-out ho scritto un articolo dedicato alla GEO keyword research e al fan-out di query che è il complemento naturale di questo discorso.
Cosa cita davvero ChatGPT, Perplexity, Gemini
Una delle scoperte meno comode dei dati del 2026 è che i diversi motori AI non citano gli stessi tipi di fonte. Costruire una strategia "uniforme" è inefficace. Tab seguente sintetizza, prudentemente, quello che gli studi di Profound, Otterly, Semrush e Wellows hanno misurato in finestre temporali diverse fra ottobre 2025 e febbraio 2026. I numeri vanno letti come ordini di grandezza, non come costanti, perché la volatilità è alta.
| Motore | Fonti dominanti | Quota indicativa Reddit | Caratteristica saliente |
|---|---|---|---|
| ChatGPT Search | Wikipedia, sito del brand, news | 5-14% (volatile) | Cita brand spesso senza link, traffico misurabile basso |
| Perplexity | Reddit, news, forum tecnici | ~31% di citazioni social | Privilegia conversazioni autentiche e Q&A |
| Google AI Overviews | YouTube, Reddit, proprietà Google (Maps, Shopping) | Reddit più citato di Quora | Solo 17% delle fonti coincide con top-10 organica |
| Gemini Deep Research | Paper, fonti istituzionali, blog tecnici | molto bassa, stima qualitativa | Privilegia fonti formali su fonti community |
Una nota sui prodotti Google: AI Overviews è la risposta sintetica che appare in cima alla SERP standard, AI Mode è l'esperienza conversazionale full-page lanciata fra 2025 e 2026. Sono due pipeline distinte con comportamenti citazionali differenti: i dati che ho riportato qui (overlap del 17% con la top-10) sono misurati su AI Overviews. Su AI Mode ci sono ancora pochi studi pubblici comparabili.
La conclusione operativa di questa tabella è che ottimizzare per ChatGPT, Perplexity, Google AI Overviews e Gemini richiede investimenti diversi. Per ChatGPT contano la presenza su Wikipedia e la coerenza del nome del brand nel web aperto. Per Perplexity contano i thread Reddit e le discussioni nei forum di settore. Per Google AI Overviews contano i video YouTube long-form e la presenza in fonti già visibili nella SERP organica. Per Gemini Deep Research contano i paper, le citazioni accademiche, le fonti istituzionali.
Sul versante specifico ChatGPT e visibilità del brand ho già pubblicato un'analisi dedicata a ChatGPT Search, Bing e visibilità brand che entra nei dettagli operativi di come si lavora sulla coerenza del nome.
Perché le brand mention contano più dei backlink
Tim Soulo, CMO di Ahrefs, ha pubblicato a fine 2025 un dato dal database Brand Radar di Ahrefs che ha confermato l'ipotesi di molti SEO: le menzioni del brand sul web aperto, anche senza link, correlano con la frequenza di citazione AI più di quanto facciano i backlink. Lo studio ConvertMate citato sopra è coerente: brand mention 0.664 di correlazione, backlink 0.218.
C'è una ragione tecnica per questo. I modelli linguistici sono stati addestrati su corpus dove l'unità di rilevanza è la co-occorrenza testuale, non il link HTML. Per un modello, "Studio Samo è un'agenzia SEO italiana" e un link da forum.html con anchor "agenzia SEO" sono cose diversissime. Il primo è un fatto su cui il modello costruisce la sua mappa del mondo. Il secondo è un segnale opaco che, se non accompagnato da menzione testuale, dice molto poco al modello generativo.
L'ulteriore dato di Ahrefs Brand Radar è che solo il 28% delle menzioni AI di un brand contiene un link al sito. Il 72% restante sono "ghost citations": il modello sa del brand, lo nomina, ma non manda traffico. Kevin Indig su Growth Memo ha quantificato il fenomeno al 61,7% in un campione di 3.981 domini. Significa che la metrica giusta per misurare la propria visibilità AI non è il traffico (che resta basso e poco rappresentativo) ma la share of voice nelle risposte generate.
Cosa farei oggi se dovessi posizionare un sito da zero
Il piano operativo che adotterei oggi nel 2026 per costruire visibilità GEO e AEO (answer engine optimization) ha sei mosse, in ordine di priorità di investimento.
- Misurare la propria share of voice AI prima di tutto: usando un tool dedicato come Profound, Otterly, Peec AI, Ahrefs Brand Radar o Semrush AI Visibility Index. Senza un baseline non sai cosa stai migliorando. La scelta del tool dipende dal budget e dalla profondità che cerchi.
- Mettere in coerenza il nome del brand su Wikipedia, schede LinkedIn, Crunchbase, profili professionali: controllando che la stringa identificativa sia identica ovunque. Le incoerenze fra "Mario Rossi Consulting" e "Mario Rossi Studio" spaccano i segnali per il modello e dimezzano l'efficacia.
- Riformattare il proprio archivio di articoli per essere chunk-ready: aggiungendo un riassunto auto-portante in apertura di ogni sezione H2, esplicitando i pronomi, mettendo i dati con fonte e anno completi. Non serve riscrivere tutto, basta fare un passaggio editoriale sulle prime due frasi di ogni sezione.
- Spostare una quota del budget content dal blog proprietario verso la distribuzione esterna: partecipando a podcast di settore, pubblicando video YouTube long-form, intervenendo in modo argomentato in thread Reddit pertinenti, pubblicando articoli ospite in testate di nicchia. Il tempo è asset trasferibile.
- Pubblicare contenuto fresco con cadenza settimanale, anche breve: perché il moltiplicatore 3.2x della freschezza entro 30 giorni misurato da ConvertMate è uno dei segnali a leva più alta. Un articolo aggiornato due volte l'anno perde citation share rispetto a una rubrica settimanale media.
- Verificare che il robots.txt non blocchi inavvertitamente GPTBot, OAI-SearchBot, ClaudeBot, PerplexityBot, Google-Extended: a meno che non sia una scelta consapevole. Bloccare tutti i bot AI per default è la scorciatoia che ho visto applicata su molti siti italiani senza una vera valutazione delle conseguenze.
Per la parte di monitoraggio delle citazioni AI con strumenti open ho scritto una guida a un sistema di monitoring con Crawl4AI e Claude Code che è alternativa pratica ai tool a pagamento per chi vuole capire prima di spendere.
Cosa questo articolo non dice e dove i dati sono fragili
Quattro cose vanno dette in chiusura per onestà metodologica.
Primo, i numeri di citation share per piattaforma che ho riportato hanno una varianza altissima fra studi diversi e fra mesi diversi. Brainlabs, in un'analisi pubblicata ad aprile 2026, ha mostrato che le citazioni di ChatGPT sulla stessa identica query cambiano significativamente a ogni rigenerazione, anche a parametri identici. Significa che ogni misurazione singola è un campionamento, non una verità. Costruire decisioni di business su un singolo report è rischioso. I dati hanno valore aggregato e tendenziale, meno come istantanea precisa. Anche i numeri specifici di ConvertMate (correlazioni 0,664 e moltiplicatori 3,2x) provengono da una sola fonte non peer-reviewed: utili come indicazione direzionale, non da prendere come costanti universali.
Secondo, il quadro che ho descritto è centrato sul mercato anglofono. In Italia gli AI Overview di Google sono attivi su una quota minore di query, la presenza di citazioni Reddit è strutturalmente più bassa perché la community italiana usa meno la piattaforma, e Perplexity ha penetrazione marginale. Il modello "distribuzione + citabilità + retrievability" resta valido come direzione, ma le tattiche concrete vanno tradotte sul mercato locale (Quora Italia, gruppi LinkedIn IT, podcast italiani, YouTube IT).
Terzo, il calcolo costi-benefici dello skyscraper non è morto in assoluto. Se sei in una nicchia molto verticale, con bassa concorrenza e un pubblico di lettori esperti che cliccano davvero, pubblicare il pezzo definitivo sul tuo dominio resta una buona strategia. Quello che non regge più è l'idea che pubblicare il pezzo definitivo sia sufficiente in nicchie ad alta concorrenza informativa, dove l'AI Overview intercetta la domanda prima che il lettore arrivi a te.
Quarto, per i brand piccoli o nuovi il percorso di costruzione della presence AI ha tempi lunghi non comprimibili. Una parte rilevante della visibilità nei modelli generativi dipende anche dai cicli di retraining e dalla presenza nel pre-training corpus, che non sono variabili che il content marketing immediato può accelerare. Le sei mosse del piano funzionano, ma producono risultati misurabili nell'ordine dei mesi-trimestri, non delle settimane.
Il punto che mi porto dietro dai dati di questi mesi è che il termine "great content" sta facendo da paravento a una distinzione che andrebbe esplicitata. Un contenuto può essere oggettivamente eccellente come pezzo di scrittura, ma poco visibile per il lettore reale del 2026. Quel lettore reale spesso non è più una persona che apre dieci tab, è una macchina che recupera passaggi e li sintetizza. Smettere di costruire per la persona che apre dieci tab e cominciare a costruire per il lettore-macchina e per la persona che legge la sintesi è il salto strategico che vedo fare alle aziende che mantengono visibilità in questo passaggio.
Se vuoi ragionare sul tuo specifico caso, su quanto sei messo male o bene rispetto a questa trasformazione, scrivimi dalla pagina contatti e prepariamo insieme una valutazione basata sui dati del tuo dominio.
Domande Frequenti
Significa che pubblicare un singolo pezzo lungo, completo e ben scritto sul proprio sito non basta più a garantire visibilità quando una quota crescente di query (48% su Google a febbraio 2026 secondo BrightEdge) genera una risposta AI che intercetta la domanda prima che il lettore clicchi. Servono distribuzione (presenza fuori dal proprio dominio), citabilità (struttura del contenuto pensata per essere estratta a passaggi) e retrievability (accessibilità tecnica ai bot AI).
I dati pubblici più attendibili sono di Seer Interactive (settembre 2025, 3.119 query, 25,1 milioni di impression organiche): -61% di CTR organico medio dove appare un AI Overview, -68% di CTR a pagamento. Ahrefs a dicembre 2025 ha misurato un -58% di CTR per la prima posizione organica. Pew Research a marzo 2025 ha misurato che gli utenti cliccano sull'8% delle volte quando vedono un AI summary, contro il 15% senza.
Lo studio ConvertMate del 2026 su 80 milioni di citazioni misura la correlazione fra segnali tradizionali e visibilità AI. Le brand mention sul web correlano 0.664 con la frequenza di citazione, i backlink solo 0.218. Il motivo tecnico è che i modelli linguistici sono addestrati su corpus dove l'unità di rilevanza è la co-occorrenza testuale e non il link HTML. Una menzione testuale del brand è un fatto su cui il modello costruisce la sua mappa del mondo, un link senza menzione testuale è un segnale opaco.
Sintesi degli studi Profound, Otterly, Semrush e Wellows fra ottobre 2025 e febbraio 2026: ChatGPT cita prevalentemente Wikipedia, brand site e news, con Reddit fra il 5% e il 14% (volatile). Perplexity cita molto Reddit (intorno al 31% delle citazioni social), news e forum tecnici. Google AI Overviews cita YouTube, Reddit e siti propri, con solo il 17% di sovrapposizione con la top-10 organica. Gemini Deep Research privilegia paper e fonti istituzionali, con Reddit allo 0,1%.
Distribuzione è la presenza del contenuto fuori dal proprio dominio (YouTube, Reddit, podcast, forum, articoli ospite). I sistemi AI privilegiano fonti diverse e trovano i brand dove gli utenti parlano davvero. Citabilità è la struttura del singolo contenuto pensata per essere estratta a passaggi: prima frase auto-portante per ogni sezione, pronomi risolti, dati con fonte e anno, paragrafi monotematici. Retrievability è l'accessibilità tecnica del sito ai bot AI (robots.txt che non blocca GPTBot/ClaudeBot/PerplexityBot, rendering accessibile, dati strutturati corretti).
I principali strumenti dedicati nel 2026 sono Profound (enterprise, processa milioni di citazioni al giorno), Otterly AI (analisi citation con sentiment), Peec AI (alert competitivi in tempo reale), Ahrefs Brand Radar (database di 250M+ prompt) e Semrush AI Visibility Index (tracciamento settimanale su ChatGPT, Google AI Mode, Perplexity, Gemini). La metrica più affidabile è la share of voice nelle risposte generate, non il traffico inviato (che resta basso per le ghost citations: il 72% delle menzioni AI non contiene un link).
Sull'autore
Claudio Novaglio
SEO Specialist, AI Specialist e Data Analyst con oltre 10 anni di esperienza nel digital marketing. Lavoro con aziende e professionisti a Brescia e in tutta Italia per aumentare la visibilità organica, ottimizzare le campagne pubblicitarie e costruire sistemi di misurazione data-driven. Specializzato in SEO tecnico, local SEO, Google Analytics 4 e integrazione dell'intelligenza artificiale nei processi di marketing.
Vuoi migliorare i tuoi risultati online?
Parliamo del tuo progetto. La prima consulenza è gratuita, senza impegno.