Bounce clicks AI Overviews: la teoria di Google sul calo del traffico regge ai dati indipendenti?

Il 23 aprile 2026, ospite del podcast Odd Lots di Bloomberg, Liz Reid, vicepresidente di Google Search, ha detto che il calo del traffico organico misurato dai publisher dopo l'arrivo degli AI Overviews non è un calo vero. Sono, secondo lei, "bounce clicks" che il sistema ha rimosso. La definizione operativa che ha dato è stretta: visite di pochi secondi dove l'utente arriva sulla pagina, vede il fatto, e torna subito in SERP. Click superficiali, non click di qualità.
Il problema della tesi è che Google l'ha introdotta per la prima volta in un blog post di agosto 2025 e in otto mesi non ha mai pubblicato un dato a supporto. Nel frattempo Seer Interactive, Ahrefs, Pew Research, SISTRIX e Kevin Indig hanno pubblicato cinque misurazioni indipendenti, con metodologie diverse e campioni grandi, che convergono tutte su un calo del CTR organico fra il 47% e il 66%. Search Engine Journal, il giorno dopo l'intervista a Bloomberg, ha pubblicato un pezzo intitolato "Google Pushes Bounce Clicks Explanation For AI Overview Traffic Loss", segnalando proprio l'asimmetria fra una spiegazione senza dati e dati senza spiegazione.
In questo articolo metto in fila i numeri verificati pubblicati fra il 2025 e i primi mesi del 2026, mostro tre punti precisi dove la teoria dei bounce clicks fa fatica a tornare con le evidenze, riassumo cosa stanno dicendo Glenn Gabe, Lily Ray, Kevin Indig e iPullRank, e chiudo con il metodo concreto che uso per leggere i dati GSC di un cliente e capire se il suo calo è "bounce" o perdita reale.
La cronologia della teoria dei bounce clicks: da agosto 2025 a oggi
L'idea che il calo del traffico osservato dopo gli AI Overviews fosse principalmente un calo di click superficiali è entrata nel discorso pubblico di Google in un blog post di agosto 2025 firmato Liz Reid. Quel post diceva che il volume di click organici sulle SERP con AI Overview era "relativamente stabile anno su anno", ma non pubblicava metodologia, campione, né numeri specifici. Era un'asserzione, non un dato.
L'asserzione è tornata in altre due occasioni pubbliche fra autunno 2025 e inizio 2026, sempre nella stessa forma. La terza ripresa, la più ampia, è il podcast Odd Lots di Bloomberg del 23 aprile 2026, dove Reid ha aggiunto la definizione operativa che ho citato in apertura. Search Engine Journal e Search Engine Land hanno coperto l'intervista nelle 48 ore successive, concentrandosi entrambe sulla stessa osservazione: la spiegazione "bounce clicks" è coerente come categoria concettuale, ma in otto mesi non ha mai prodotto numeri verificabili.
Mentre Google ripete l'asserzione, gli altri pubblicano dati. Reuters Institute Journalism and Technology Trends 2026, basandosi su misurazioni Chartbeat aggregate sul traffico dei publisher, registra un calo intorno a un terzo del traffico Google verso siti editoriali nell'ultimo anno. Business Insider ha riportato un calo del 55% del proprio traffico organico fra aprile 2022 e aprile 2025: la finestra include il periodo pre-rollout AI Overview, quindi va letta come trend di erosione complessiva (anche knowledge panel, featured snippet, PAA) e non come effetto AI Overview puro. Sono numeri che, anche scontando una quota dovuta a fattori SERP precedenti agli AI Overview, restano grandi. Se rappresentano principalmente "bounce clicks rimossi", richiedono almeno una spiegazione di metodologia.
Cos'è un bounce click secondo Google e perché la definizione si presta a confusione
Un bounce click, nella definizione di Reid al podcast di Bloomberg, è un click su un risultato organico dove l'utente arriva sulla pagina, vede il fatto che cercava, e torna immediatamente indietro a Google. Il modello implicito è quello del lettore che sta solo verificando un'informazione singola (una data, un nome, una cifra), e che se la trova già nell'AI Overview non ha più bisogno di cliccare. Per Google, sia il click sia la non-visita sono equivalenti dal punto di vista del valore informativo per l'utente: in entrambi i casi, l'utente è soddisfatto. Il click in più non aggiungeva valore al pubblico.
La distinzione è ragionevole come categoria astratta. Il problema arriva quando si cerca di farla diventare la spiegazione principale di un calo del traffico misurabile. Tre obiezioni di metodo.
Primo, "bounce click" come definito da Reid non è una metrica che il publisher può misurare con certezza dai propri analytics. Una sessione di pochi secondi nel tuo Google Analytics include almeno quattro fenomeni diversi: il click utile mancato (utente che voleva il tuo articolo ma è uscito perché la pagina caricava lenta), il click di interesse genuino dove l'utente trova la risposta utile e basta (positivo per lui, neutro per te), il bounce click come definito da Reid (informazione singola), il bot che simula la visita. Quattro casi qualitativamente diversi, una sola misura sul tuo lato. Senza un dato lato Google sulla composizione di questo aggregato, la categorizzazione è opaca.
Secondo, l'argomento è circolare se non viene affiancato da una metrica indipendente. Reid sta dicendo "il traffico cala ma la perdita non è significativa, perché era traffico di scarsa qualità". Senza un dato separato che misura la qualità prima e dopo (ad esempio: tempo medio di lettura, profondità di scroll, conversion rate sui click sopravvissuti), l'affermazione "era traffico di scarsa qualità" si appoggia solo sul fatto che è calato. È il classico ragionamento ad hoc: spieghi il dato con il dato.
Terzo, e questo è il punto più sostanziale, ci sono dati di terze parti che misurano cose specifiche che la teoria del bounce click non dovrebbe essere in grado di spiegare. Le vediamo nelle prossime due sezioni.
I dati indipendenti sugli AI Overview che la narrativa di Google deve spiegare
I numeri pubblicati negli ultimi diciotto mesi convergono in modo che la narrativa "bounce clicks" fa fatica a contenere. Riassumo nella tabella le sei misurazioni più rilevanti, con campione e finestra temporale di ciascuna.
| Studio | Data | Campione | Calo CTR misurato |
|---|---|---|---|
| Seer Interactive | Settembre 2025 | 3.119 query, 25,1M impression organiche, 42 clienti | -61% organic, -68% paid |
| Ahrefs | Febbraio 2026 | 300.000 keyword (150K AIO + 150K controllo) | -58% relative click reduction su posizione 1 |
| Pew Research | Marzo 2025 (pubblicato luglio 2025) | 900 utenti USA, 68.879 query reali | 8% click con AIO vs 15% senza, -47% |
| SISTRIX | Marzo 2026 | 100M+ keyword in Germania | Posizione 1: 27% → 11%, -59% |
| Kevin Indig (TSEG) | 2025 | 70 utenti reali, 400+ AI Overview, 29 ore think-aloud | -66% CTR su desktop, -50% su mobile |
| Semrush | 2026 | 10M keyword | -34,5% CTR medio posizione 1; branded +18,68%, non-branded -19,98% |
Conviene fermarsi sulla convergenza. Sei metodologie diverse, tre paesi diversi (Stati Uniti, Germania, mercati anglofoni misti), strumenti diversi (clickstream Pew, SERP tracking SISTRIX, analytics partner Seer, panel commerciale Ahrefs e Semrush, UX think-aloud Indig), e i numeri arrivano tutti in una banda fra il -47% e il -66%, con un terzo dato Semrush a -34,5% medio che, scomposto fra branded e non-branded, mostra una distribuzione coerente con gli altri. Quando misurazioni così eterogenee per metodo convergono dentro un range del 20%, il segnale del fenomeno è solido, indipendentemente dall'interpretazione.
Per il quadro più ampio del calo della visibilità AI search e di cosa fare per contenerlo ho scritto la guida sul perché il great content non basta più nell'AI search che è il complemento naturale di questo discorso e copre il versante "cosa fare di costruttivo".
Il punto è che, se la spiegazione "bounce clicks" fosse corretta, dovrebbe spiegare perché tutti questi studi misurano lo stesso ordine di calo, e perché lo misurano in metodologie che catturano comportamenti diversi. Il think-aloud di Indig osserva l'utente reale che decide se cliccare. Lo studio Pew lo cattura in clickstream effettivo. Quello Seer lo legge dagli analytics dei clienti. Quello Ahrefs e quello Semrush lo leggono dal panel commerciale. Quello SISTRIX dal proprio crawler SERP a 100 milioni di keyword. Sono lenti diverse e tutte vedono lo stesso calo, sotto la stessa causa visibile (presenza di AIO). Una spiegazione adeguata deve poter rendere conto del pattern, non solo dichiararlo "bounce".
Tre punti dove la teoria dei bounce clicks fa fatica a tornare con i dati
Se la spiegazione di Reid fosse corretta nel modo in cui l'ha presentata, tre cose dovrebbero essere visibili nei dati. Non lo sono. Le elenco perché sono i tre punti su cui un eventuale dato pubblico di Google dovrebbe convergere per essere persuasivo, e finché non arrivano restano i tre punti deboli della tesi.
1. Il CTR a pagamento non doveva calare quanto l'organico, e invece cala più dell'organico
Lo studio Seer di settembre 2025 misura un -68% sul CTR a pagamento contro il -61% sull'organico, sulle stesse query con AIO. Un click su un annuncio costa al brand soldi reali. L'utente che lo fa per "verificare" un'informazione singola (il bounce click classico) paga il publisher con denaro vero, non con tempo. È un comportamento economicamente irrazionale per l'utente. Se davvero gli utenti che cliccavano prima erano in buona parte "bounce" su informazioni elementari, dovremmo vedere il CTR organico precipitare e quello a pagamento tenere meglio, perché l'utente con bisogno informativo veloce non clicca quasi mai sull'ad. Invece i due crollano insieme, e il paid crolla di più. Va detto che il dato Seer è su 42 clienti dell'agenzia, un campione di convenienza non rappresentativo del mercato generale, ma il pattern paid uguale o peggio dell'organico è coerente anche con i dati Ahrefs e Semrush. Significa che il calo non è concentrato sui click superficiali, è distribuito sull'intero comportamento di click sopra la fold.
2. Lo studio Pew misura un cambio di chiusura sessione, non solo un calo di click
Il dato Pew di marzo 2025 (pubblicato luglio 2025) registra che il 26% degli utenti che vede una risposta AI termina la sessione subito dopo, contro il 16% che la termina senza AI summary. Un "bounce click" rimosso, nella narrativa di Google, significa che l'utente, prima, cliccava un risultato organico, lo vedeva, tornava in SERP, magari ne provava un altro. La sessione restava aperta. Quello che Pew misura è invece che l'utente con AI summary chiude del tutto: prende la risposta, esce, va via. Non è un click rimbalzato, è un click mai fatto e una sessione mai approfondita. Sono cose qualitativamente diverse e con conseguenze diverse per il publisher: nello scenario "bounce", il publisher non perde valore. Nello scenario Pew, il publisher perde l'opportunità di mostrarsi.
3. Il calo è asimmetrico fra query branded e non-branded in un modo che la teoria non prevede
Il dato Semrush 2026 su 10 milioni di keyword scompone il calo del CTR per tipo di query. Le query branded (chi cerca un brand specifico) ottengono +18,68% di CTR con AI Overview presente. Le non-branded perdono il 19,98%. Se i bounce click fossero principalmente verifiche rapide di fatti elementari, il calo dovrebbe essere concentrato sulle query informative più semplici e neutre, non distribuito asimmetricamente sui due insiemi nominale/anonimo. Lo vediamo invece concentrato sulle query non-branded, dove l'utente non sa ancora chi vuole consultare. È il pattern di un comportamento dove l'AI Overview risponde alla domanda al posto del primo click su un risultato sconosciuto, non di un click "rimbalzato" che era inutile in partenza. Detto in altro modo: l'AI Overview sta intercettando la domanda generica prima che l'utente compari il dominio, non sta filtrando i visitatori superficiali da una platea di lettori interessati.
Cosa dice l'industria SEO della spiegazione di Google
Quattro voci nel dibattito che vale la pena leggere insieme, perché coprono angoli diversi e si rinforzano a vicenda.
- Glenn Gabe (G-Squared Interactive): "Google deve smetterla con le formule e spiegare semplicemente che gli AIO e l'AI Mode causano cali di traffico per molti siti." Gabe ha proposto un metodo concreto: incrociare i dati GSC con dati AIO di Semrush, Ahrefs e SISTRIX per misurare il calo specifico sul proprio dominio, invece di accettare la narrativa aggregata.
- Lily Ray (Advanced Web Ranking, ex iPullRank): considera la mancata risposta di Google alle domande dirette sui dati di traffico come "un'ammissione indiretta che gli AI Overview non portano più traffico, anzi probabilmente meno traffico in media". Il punto di Ray è che il rifiuto di pubblicare metodologia è di per sé un'evidenza interpretabile.
- Kevin Indig (Growth Memo): ha pubblicato pubblicamente la metodologia del proprio UX study (70 utenti reali, 400+ AI Overview osservati, 29 ore di sessioni think-aloud) e ha registrato un calo del 66% sul desktop. La sintesi che ha dato è del tipo che fa rumore: "I click sono calorie vuote. La SEO ha bisogno di una nuova dieta".
- Mike King e iPullRank: "I bounce clicks andrebbero trattati come un'ipotesi, non come un risultato. Google controlla sia la feature sia le metriche con cui misurare il successo della feature stessa. È un conflitto di interessi metodologico." È la critica più epistemologica e quella che, secondo me, regge meglio nel tempo.
Il punto comune fra queste posizioni è che, in assenza di dati pubblici, la posizione di Google non è una spiegazione, è un'asserzione. E un'asserzione di un soggetto in conflitto di interessi vale poco come argomento contro misurazioni indipendenti convergenti. Non significa che Reid stia dicendo cose false. Significa che, finché Google non pubblica i dati, la posizione razionale è dare più peso ai dati esterni convergenti, non meno.
Il dato del report Seer di aprile 2026 che spiega cosa fare invece di aspettare
Il report Seer Interactive pubblicato il 26 aprile 2026, basato su 5,47 milioni di query e 2,43 miliardi di impression dei primi due mesi del 2026, contiene un dato che pochi hanno commentato e che secondo me è il punto operativo più rilevante di tutta la discussione. I brand citati dentro l'AI Overview ricevono il 35% in più di click organici e il 91% in più di click a pagamento rispetto ai brand non citati, sulla stessa query.
Tradotto in pratica: il calo del traffico AI Overview non è uniforme nemmeno fra siti diversi sulla stessa query. Se sei nelle citazioni dell'AI Overview, in parte recuperi il calo del CTR. Se non sei nelle citazioni, il calo si fa sentire pieno. La domanda strategica del 2026 non è più "come faccio a non perdere traffico?" ma "come faccio a essere il sito che la macchina cita quando risponde alla query del mio cluster?". È una domanda diversa, e cambia il modo in cui si imposta il piano editoriale.
Una nota di prudenza causale, perché conta: il dato +35% / +91% non isola la citazione come variabile indipendente. È plausibile che i brand citati siano già quelli con autorità di dominio più alta, search demand branded più alta, copertura media più ampia, e che ricevano più click per ragioni preesistenti che non dipendono dalla citazione AIO in sé. Letto come correlazione (non come causa), il dato resta operativo lo stesso: il margine di recupero passa per essere parte di quel cluster di brand "citati e cliccati", qualunque sia la frazione di effetto realmente dovuta alla citazione. Lavorare sulla citabilità è più produttivo che aspettare che Google chiarisca cosa stia succedendo.
Lo stesso report Seer registra il CTR organico medio in fase di stabilizzazione: era allo 0,61% a settembre 2025, è all'1,3% a dicembre 2025, e al 2,4% a febbraio 2026. La traiettoria non è ancora ai livelli pre-AIO (1,76% misurato a giugno 2024), ma indica che il pattern di consumo si sta riassestando in un nuovo equilibrio, più basso ma meno ripido. Il punto operativo non è aspettare il ritorno al 2024, è capire come stare nel nuovo equilibrio.
Per la parte di content strategy adattata all'AI Overview e ai motori generativi ho già pubblicato la guida a GEO, AI Overviews e content strategy nel 2026 che spiega cosa rende un contenuto candidato a essere citato dalla macchina.
Come leggere i tuoi dati GSC per capire l'impatto AI Overview sul tuo sito
L'analisi che faccio ai clienti che mi chiedono "ma quanto sto perdendo davvero?" è banale ma raramente fatta. Tre passi, e tipicamente in mezza giornata di lavoro produce una risposta numerica utile.
Passo uno: segmentare le query del proprio dominio per presenza AIO
GSC non lo fa nativo, perché non distingue le query con AIO da quelle senza. Si fa con tool di terze parti. Semrush Position Tracking, Ahrefs Top Pages e SISTRIX SERP Tracker permettono di segmentare le query del proprio dominio in due insiemi: quelle dove la SERP attiva un AI Overview sopra il primo organico, e quelle dove non lo attiva. Su un campione di 28 giorni minimo (meglio 90), conta clicks, impressions, CTR e posizione media per ciascun insieme.
Passo due: confrontare il delta fra i due insiemi
Tre scenari possibili. Se sul gruppo "con AIO" la posizione media è uguale o migliore rispetto al gruppo "senza AIO" ma il CTR è significativamente più basso, hai un calo da AIO genuino, coerente con i dati Seer/Ahrefs/SISTRIX. Se il CTR è simile fra i due gruppi ma le impressions del gruppo AIO sono cresciute, sei in uno scenario stable in absolute clicks che la narrativa Google racconta. Se sul gruppo AIO sei sceso anche di posizione media, il problema è doppio: stai perdendo ranking E CTR, cioè il calo del traffico ha cause aggiuntive oltre all'AIO. Tipicamente, sui domini italiani che osservo, lo scenario uno è quello dominante.
Passo tre: misurare la share of citation nelle AI Overview
Il dato Seer di aprile 2026 dice che essere citati conta. Quindi serve un dato sul proprio share di citazione. Strumenti come Profound, Otterly AI, Peec AI o Ahrefs Brand Radar misurano la share of citation per dominio sui motori AI (ChatGPT, Perplexity, Google AI Mode, Gemini). Se sui tuoi cluster di query principali la share è bassa o nulla, il problema non è solo il calo del CTR organico classico, è che la macchina sta rispondendo senza nominarti. Quello è il margine concreto su cui lavorare nei mesi successivi: distribuzione del nome del brand dove la macchina lo legge (citazioni esterne, presenza Reddit/YouTube/Wikipedia, contesto on-site citabile).
Per chi vuole capire in autonomia il monitoraggio delle citazioni AI senza pagare un tool ho scritto la guida a un sistema di monitoring con Crawl4AI e Claude Code che è alternativa pratica per chi vuole misurare prima di spendere.
Cosa questo articolo non dice e cosa non sappiamo ancora
Sei cose vanno dette in chiusura per onestà metodologica, perché la critica della tesi Google funziona solo se è onesta sui propri limiti.
Primo, la maggior parte degli studi che ho citato è centrata su mercati anglofoni o tedeschi. In Italia gli AI Overview hanno presenza ancora minore (la stima di mercato che uso a inizio 2026 è intorno al 15-20% delle query, ma è un dato volatile e fonti pubbliche italiane comparabili a Seer non ne ho). Il calo aggregato sul mercato italiano è quindi più attenuato rispetto a quello USA o tedesco, ma cresce con la stessa traiettoria. Aspettare passivamente non rallenta il fenomeno, lo posticipa di qualche trimestre.
Secondo, alcuni dati che circolano nell'industria SEO non sono rigorosamente verificati a fonte primaria. Il dato BrightEdge "76% di overlap fonti AI/SERP a luglio 2025 sceso al 38% a febbraio 2026" è ripreso da molti, ma nelle fonti BrightEdge primarie ho trovato solo il dato del 17% di overlap top-10 senza la serie storica completa. Il numero racconta un trend coerente con il resto, ma l'andamento citato lo riporto con cautela.
Terzo, lo studio Indig (66% di CTR drop) ha campione piccolo (70 utenti). I dati Pew, Seer, Ahrefs e SISTRIX hanno campioni di ordini di grandezza superiori. Il 66% di Indig regge come ordine di grandezza dentro la convergenza degli altri studi, ma il numero specifico va letto come indicativo di un pattern, non come misura puntuale.
Quarto, il dato Semrush sulle query branded che salgono del 18,68% con AIO è l'evidenza più favorevole per i brand già forti. Per i brand piccoli o nuovi, dove la maggior parte delle query del cluster è non-branded informazionale, lo scenario è il più sfavorevole. Il quadro generale "bounce clicks contro perdita reale" cambia molto a seconda della maturità del brand: un brand di nicchia con search volume principalmente non-branded non recupera con la mossa "diventiamo riconoscibili", perché quel recupero richiede budget e tempo che non ha.
Quinto, il dibattito si svolge in un momento di transizione tecnica. L'AI Mode di Google, lanciato fra 2025 e 2026 come esperienza conversazionale full-page, ha pipeline e comportamenti citazionali diversi dall'AI Overview classico. La maggior parte dei dati che ho citato è su AI Overview, non su AI Mode. È plausibile che fra sei mesi una parte del quadro vada riscritta sulla base di evidenze nuove, e che nel frattempo Google pubblichi (o no) i dati che fino a oggi mancano.
Sesto, lo steelman della posizione di Google merita di essere esplicitato perché è il punto filosofico vero del dibattito, e l'articolo finora l'ha sfiorato senza svilupparlo. La versione più forte della tesi di Google è che il CTR non sia la metrica giusta per misurare il valore di un AI Overview per l'utente: un utente che riceve la risposta corretta senza cliccare è un successo del sistema, e i publisher misurano "perdita di traffico" perché il loro modello di business dipende dal traffico, non dal valore informativo per l'utente finale. Detto in altro modo, il valore-per-utente e il valore-per-publisher sono metriche non sovrapponibili e Google sta giustamente ottimizzando per il primo. Questa tesi ha senso ed è coerente. Il problema, anche dentro questo steelman, resta uno solo: il rifiuto di pubblicare un'evidenza misurabile che dimostri che gli utenti siano davvero soddisfatti meglio (e non semplicemente più rapidamente). Senza quel dato, lo steelman ha la stessa fragilità della tesi originale: regge logicamente, ma non è falsificabile.
La cosa che mi resta dopo quattro mesi di lettura su questa storia è una sensazione semplice. Quando la piattaforma che controlla la metà del retail della search ti dice che il calo che misuri sui tuoi siti non è un calo vero, la prima domanda è: in base a cosa lo dite? E quando l'unica risposta è "fidatevi, abbiamo i dati ma non li mostriamo", la decisione operativa cambia. Smetti di aspettare che Google ti spieghi cosa sta succedendo, e cominci a misurare per conto tuo, dominio per dominio, cluster di query per cluster di query. La risposta sul tuo sito non sta nel comunicato di Mountain View, sta nei tuoi dati GSC incrociati con i tracker AI esterni e nel report Seer di aprile 2026 che ti dice cosa cambia se sei nelle citazioni invece che fuori.
Se vuoi capire quanto stai perdendo davvero sul tuo dominio e cosa sta succedendo sulle tue query principali, scrivimi dalla pagina contatti e prepariamo insieme un'analisi sui tuoi dati GSC più la share di citazione nelle AI Overview.
Domande Frequenti
Liz Reid li ha definiti il 23 aprile 2026 al podcast Odd Lots di Bloomberg come click superficiali su un risultato organico dove l'utente arriva sulla pagina, vede il fatto che cercava, e torna subito in SERP. Per Google, gli AI Overviews tolgono soprattutto questo tipo di click, lasciando intatti i click di qualità. La definizione è coerente come categoria astratta, ma è difficile da misurare con dati pubblici e Google non ha pubblicato evidenza a supporto in otto mesi dall'introduzione della tesi.
I dati pubblici verificati 2025-2026 convergono su un calo fra il 47% e il 66% a seconda della metodologia. Seer Interactive misura -61% organic e -68% paid (settembre 2025, 3.119 query, 25,1M impression). Ahrefs misura -58% sulla posizione 1 (febbraio 2026, 300.000 keyword). SISTRIX misura -59% in Germania (marzo 2026, 100M+ keyword). Pew Research misura -47% (marzo 2025, 900 utenti USA, 68.879 query). Kevin Indig in UX study misura -66% su desktop (70 utenti, 400+ AIO osservati). Le metodologie sono diverse e questa convergenza rafforza il dato.
Tre motivi. Primo, Google ha introdotto la tesi nell'agosto 2025 e in otto mesi non ha mai pubblicato dati a supporto, mentre studi indipendenti convergono su un calo significativo. Secondo, la teoria fa fatica a spiegare il calo simmetrico del CTR a pagamento (-68% Seer): i bounce click sono economicamente irrazionali sull'ad, dovrebbero pesare meno, invece pesano di più. Terzo, il pattern asimmetrico tra query branded (+18,68% Semrush) e non-branded (-19,98%) è coerente con un AI Overview che intercetta la domanda anonima prima del click, non con un filtro che rimuove click superficiali.
Sì. Il report Seer Interactive pubblicato il 26 aprile 2026 (5,47M query e 2,43 miliardi di impression gen-feb 2026) misura che i brand citati nell'AI Overview ricevono il 35% in più di click organici e il 91% in più di click a pagamento rispetto ai brand non citati sulla stessa query. È il dato più operativo per chi vuole capire cosa fare oggi: il margine di recupero passa per essere parte delle citazioni della macchina, non per riprendere il traffico pre-AIO con la stessa strategia di prima.
Tutti e quattro sono critici. Glenn Gabe (G-Squared Interactive) chiede a Google di "smetterla con le formule e ammettere il calo". Lily Ray (Advanced Web Ranking) legge il rifiuto di Google di pubblicare metodologia come "un'ammissione indiretta" del calo reale. Kevin Indig (Growth Memo) ha pubblicato pubblicamente la metodologia del proprio UX study e lo sintetizza con "i click sono calorie vuote, la SEO ha bisogno di una nuova dieta". Mike King di iPullRank sottolinea il conflitto di interessi metodologico: Google controlla sia la feature sia le metriche con cui ne misura il successo.
Tre passi. Uno, segmentare le query del proprio dominio in due gruppi (con AIO presente sopra il primo organico e senza) usando Semrush Position Tracking, Ahrefs Top Pages o SISTRIX SERP Tracker. Due, confrontare clicks, impressions, CTR e posizione media tra i due gruppi su finestra di 28-90 giorni: se la posizione è uguale ma il CTR è più basso, hai un calo da AIO genuino. Tre, misurare la share of citation nelle AI Overviews sui propri cluster principali con Profound, Otterly AI, Peec AI o Ahrefs Brand Radar. Lo scopo è distinguere lo scenario "calo da AIO genuino" da quello "impressions cresciute, click stabili in assoluto".
Sull'autore
Claudio Novaglio
SEO Specialist, AI Specialist e Data Analyst con oltre 10 anni di esperienza nel digital marketing. Lavoro con aziende e professionisti a Brescia e in tutta Italia per aumentare la visibilità organica, ottimizzare le campagne pubblicitarie e costruire sistemi di misurazione data-driven. Specializzato in SEO tecnico, local SEO, Google Analytics 4 e integrazione dell'intelligenza artificiale nei processi di marketing.
Vuoi migliorare i tuoi risultati online?
Parliamo del tuo progetto. La prima consulenza è gratuita, senza impegno.