SEO e PosizionamentoSEO + AI Lab

Browser AI agentici e SEO: cosa cambia con Atlas, Comet e Dia

Claudio Novaglio
16 min di lettura
Browser AI agentici e SEO: Atlas, Comet e Dia cambiano il modo in cui gli utenti raggiungono il tuo sito nel 2026

Comet di Perplexity ha superato i 10 milioni di utenti attivi mensili nel 2025 e una quota mondiale dell’1,9% sul mercato browser, secondo i numeri dichiarati pubblicamente da Perplexity stessa. È il primo browser AI agentico arrivato a una scala che la SEO non può più ignorare. Atlas di OpenAI è arrivato a ottobre 2025, Dia di The Browser Company è stato comprato da Atlassian per 610 milioni a settembre 2025. Tre prodotti, una stessa premessa: a leggere il tuo sito non è più solo un essere umano.

Quando lavoro su una strategia di posizionamento per un cliente, parto sempre dalla stessa domanda. Chi atterra sulla pagina e cosa vuole portarsi via? Per quindici anni la risposta è stata "una persona che ha cliccato su Google". Oggi quella persona può essere un agente AI che esegue un task per conto suo, che apre dieci tab in venti secondi, che legge l’accessibility tree senza guardare il rendering. Il browser ai cambia il contratto fra sito e visitatore.

In questo articolo metto in fila cosa sono Atlas, Comet e Dia, cosa cambia davvero per chi fa SEO e GEO, e quali interventi concreti hanno senso oggi sui siti che gestisco. La risposta in due righe: gli agenti AI leggono il contenuto nel sidebar invece di mandare l’utente sulla pagina, abbassano il CTR organico classico ma alzano il valore relativo dei siti citati. La SEO non muore, si redistribuisce. Nel resto dell’articolo niente predizioni, solo dati verificati, un confronto onesto e una lista di limiti che dichiaro prima.

Browser AI agentici: cosa sono e perché contano

Un browser AI agentico è un browser nel senso tradizionale (motore Chromium che renderizza pagine HTML) con un layer di esecuzione autonoma che permette a un modello di linguaggio di leggere, decidere e agire al posto dell’utente. Comet e Dia sono fork di Chromium dichiarati. Atlas è Chromium-based ma OpenAI non ha pubblicato i dettagli architetturali completi. Tutti e tre integrano un assistente AI che vede il contenuto della pagina, ha memoria delle sessioni precedenti e può eseguire sequenze di azioni: cliccare, compilare form, navigare fra siti, sintetizzare il risultato.

La differenza rispetto ai chatbot AI con accesso al web è il punto di vista. ChatGPT con browsing legge un sito tramite il proprio crawler dedicato (OAI-SearchBot, ChatGPT-User), che si presenta come un user-agent identificabile. Atlas in agent mode invece usa una sessione browser indistinguibile da un Chrome qualsiasi e attiva sul tuo dominio una sequenza di azioni come farebbe un utente reale. Il sito non sa, in molti casi, che dall’altra parte c’è un agente.

Cloudflare, nei report aggiornati sul traffico AI del 2026, distingue tre categorie di traffico non umano: training crawler (intorno all’89% del traffico AI), search crawler (circa 8%), agentic bots (poco più del 2%, categoria emergente). I browser agentici cadono nella terza, ed è quella che cresce più rapidamente. Le percentuali oscillano fra report e mese, ma il dato di scala resta: OpenAI bots da soli rappresentano circa il 69% di tutto il traffico AI per volume.

Atlas, Comet e Dia: i tre browser AI agentici a confronto

Stato di lancio, modello di business e capacità agentiche dei tre agentic browser principali sono diversi al punto da rendere il confronto utile prima di parlare di impatto SEO. Ho aggiornato i dati al 29 aprile 2026 con fonti dirette dei vendor.

BrowserLancioStatoPricing baseDifferenziatore
Atlas (OpenAI)21 ott 2025GA macOS, Windows in betaFree + Plus/Pro $20/meseAgent mode + ChatGPT integrato
Comet (Perplexity)9 lug 2025GA Windows/macOS/iOS/AndroidFree + Pro $20 + MaxBackground Assistants e Model Council
Dia (The Browser Co)Giu 2025 beta, ott 2025 GASolo macOSFree + Pro $20/meseEredita feature di Arc, integrazioni Atlassian in arrivo

Su Comet i numeri pubblici sono i più completi. Perplexity ha dichiarato pubblicamente almeno 10 milioni di utenti attivi mensili nel 2025, con una crescita mensile più rapida di Firefox e una retention a 30 giorni intorno al 48%. Sono numeri self-reported dal vendor, non auditati da terze parti. Atlas e Dia invece non hanno mai pubblicato numeri ufficiali di download o MAU, quindi qualunque stima diversa da "non sappiamo" andrebbe trattata con sospetto.

Atlas ha un dettaglio che cambia il quadro per chi si occupa di pubblicità. Diverse analisi pubblicate dopo il lancio hanno segnalato il rischio che il browser droni i budget Google Ads: quando l’agente naviga e clicca per conto dell’utente, genera traffico che assomiglia a un visitatore umano ma non converte come un essere umano farebbe. Il rischio è doppio: ad budget bruciati e modelli di attribuzione sporcati da false retargeting audience.

Dia è il caso più particolare. The Browser Company aveva costruito Arc, un browser di nicchia ma molto amato dai power user, e lo ha congelato a maggio 2025 per concentrarsi su Dia. A settembre 2025 Atlassian ha acquisito l’azienda per 610 milioni, e da novembre 2025 Dia ha iniziato a integrare le feature più amate di Arc (sidebar verticale, custom shortcut). La direzione strategica suggerisce che diventerà il browser AI di riferimento dell’ecosistema Atlassian (Jira, Confluence, Trello), un caso d’uso B2B distinto dal consumer di Atlas e Comet.

Come i browser AI agentici cambiano il pattern di click

Il primo effetto misurabile è una redistribuzione del traffico organico, non la sua scomparsa. I dati che escono dai grandi tracking provider raccontano una storia in due tempi: chi viene citato nelle risposte AI guadagna click di qualità superiore, chi sta in top 10 senza essere citato perde click sostanziali. La metrica del CTR è ancora valida, ma il driver principale ora è la citazione, non la posizione.

Pew Research, su un campione di 68.000 query monitorate nel 2025, ha misurato un calo del 46,7% del CTR organico relativo quando appare un AI Overview. In termini assoluti, il CTR organico passa da 1,76% a 0,61%: un calo intorno al 65% sulle query interessate. La posizione 1 perde circa il 18% di CTR, la posizione 2 il 39%. Questi numeri sono specifici degli AI Overview di Google, ma il principio si estende al comportamento di Atlas e Comet: l’agente legge la risposta nel sidebar invece di mandarti l’utente sulla pagina.

Il rovescio della medaglia, secondo lo studio BrightEdge ripreso da Position Digital, è che i siti effettivamente citati nelle risposte AI vedono un aumento del 35% nei click e un tasso di conversione fino a cinque volte superiore rispetto ai siti in top 10 non citati. Va detto che il dato ha un selection bias forte (i siti citati tendono a essere già brand authority più solidi), ma la direzione del segnale resta coerente con altre fonti. Il senso del messaggio è chiaro: la visibilità "passiva" della top 10 vale meno di prima, la visibilità "attiva" della citazione vale molto di più.

Sul versante dati ho scritto un pezzo dedicato a come stanno bouncing i clic da Google verso le AI Overview con i numeri di Similarweb e qualche stima sull’impatto per le PMI italiane.

Il punto operativo è che il traffico totale da motori di ricerca AI, secondo Similarweb, ha registrato un calo intorno al 15% fra ottobre 2025 e gennaio 2026, dopo una crescita rapidissima nei mesi precedenti. ChatGPT da solo rappresenta circa l’87% di tutto il traffico referral AI. Tradotto: il traffico LLM resta sotto l’1% del traffico organico totale e cresce lentamente. La crisi del CTR non è "morte della SEO", è una metamorfosi che premia chi è citato e penalizza chi non lo è.

Browser AI e user-agent: il problema dell’identificazione

Qui si apre la parte più tecnica e meno comoda da spiegare ai clienti. Atlas e Comet, quando navigano in agent mode per conto dell’utente, mandano la stessa user-agent string di un Chrome qualsiasi sul sistema operativo dell’utente. Non c’è un token "Atlas" o "Comet" identificabile lato server. È una scelta di design dei vendor, motivata dal fatto che l’agente sta "agendo come l’utente", non come un crawler indipendente. Lato sito, però, significa che le difese basate su user-agent detection non funzionano. Resta il behavioral fingerprinting (pattern di navigazione, sequenza di azioni, assenza di mouse movement, velocità di esecuzione) che Cloudflare Bot Management e DataDome usano già in produzione, ma non è alla portata del piccolo sito senza CDN evoluto.

OpenAI ha provato a mitigare il problema adottando le HTTP Message Signatures (RFC 9421, standardizzato dall’IETF nel febbraio 2024), che permettono al server di verificare crittograficamente che la richiesta arrivi davvero da un agente OpenAI autenticato. È una soluzione elegante ma adottata da pochi siti, perché richiede infrastruttura lato server e si applica solo agli user-agent dichiarati come ChatGPT-User: non risolve il problema degli agenti mascherati da Chrome. Nel frattempo Robb Knight, ricercatore indipendente, aveva documentato già nel 2024 un caso pubblico in cui Perplexity inviava user-agent dichiarato diverso da quello reale, generando una mezza polemica nel settore SEO sull’affidabilità delle dichiarazioni dei vendor.

I crawler dedicati al training e alla ricerca sono invece identificabili. La tabella sotto è la mappatura aggiornata che uso negli audit dei clienti.

User-agentVendorFunzioneRispetta robots.txt
GPTBotOpenAITraining
OAI-SearchBotOpenAISearch live
ChatGPT-UserOpenAIUser agent (agentic)No (richieste user-initiated)
PerplexityBotPerplexitySearch live
Perplexity-UserPerplexityUser agentNo (user-initiated)
ClaudeBotAnthropicTraining
Google-ExtendedGoogleTraining GeminiSì (separato da Googlebot)
Google-AgentGoogleAgent (Gemini)No

La distinzione fra user-agent "training" e "user-initiated" è il punto chiave. ChatGPT-User e Perplexity-User ignorano il robots.txt perché formalmente "agiscono per conto di un utente che ha digitato la richiesta", e OpenAI lo dichiara apertamente nella documentazione publisher pubblica. La conseguenza è scomoda: se hai bloccato GPTBot pensando di tener fuori OpenAI, ChatGPT-User passa lo stesso. Per bloccarlo serve un blocco a livello di firewall sugli IP ufficiali OpenAI, non una direttiva nel robots.txt.

Il caso Reddit contro Perplexity, depositato a New York il 22 ottobre 2025, ha portato in tribunale federale proprio questo tema. Reddit ha usato "marked bills", contenuti volontariamente esposti solo all’indice Google, per dimostrare che Perplexity li ha riprodotti nelle proprie risposte aggirando i blocchi. La causa è ancora aperta ma ha cristallizzato la posizione delle piattaforme grandi: il robots.txt è un segnale, non un contratto vincolante, e per fare enforcement reale serve l’avvocato.

Per chi vuole scendere nel dettaglio dei layer di un audit AI-aware, ho scritto da poco la guida completa all’audit SEO tecnico oltre Googlebot con cinque livelli concreti e un test curl in 30 secondi per simulare GPTBot sul tuo sito.

Cosa fare lato sito quando i visitatori sono agenti AI

Tre categorie di intervento, in ordine di costo crescente. Le applico nei progetti dei clienti seguendo il principio del rapporto sforzo-rendimento, perché ottimizzare per agenti AI senza prima aver risolto le basi tecniche resta un esercizio di stile.

Interventi a costo zero: pulizia robots.txt e segmenti GA4

Apri il robots.txt e verifica che ci siano regole esplicite per tutti gli user-agent della tabella sopra. L’errore che vedo più spesso è un Disallow: / per User-agent: * scavalcato da regole permissive sotto. Se vuoi essere visibile in ChatGPT Search ma non finire nel training di GPT-5, blocca GPTBot e lascia passare OAI-SearchBot e ChatGPT-User. Se vuoi escludere il training Gemini ma restare in Google, blocca Google-Extended e tieni Googlebot.

Apri GA4 e crea segmenti dedicati ai referral provenienti da chat.openai.com, perplexity.ai, claude.ai, copilot.microsoft.com e gemini.google.com. È il tracciamento più diretto e meno rumoroso per misurare se gli utenti delle AI atterrano davvero sul tuo sito. Per i siti italiani che monitoro, questa fonte di traffico oggi pesa fra l’1% e il 3% del totale: poco, ma con un tasso di conversione spesso superiore al canale organico. Il valore relativo è già più alto del valore assoluto.

Interventi a basso costo: schema markup e HTML semantico

Lo schema JSON-LD resta il formato preferito dagli LLM perché è un blocco contiguo e parsificabile. Una ricerca BrightEdge del 2025 ha trovato che i siti con FAQ schema e structured data validi hanno avuto un 44% di citazioni AI in più, anche se il dato presenta un selection bias evidente (i siti più curati tendono a essere già più autorevoli). Uno studio indipendente di fine 2024 non ha trovato correlazione fra coverage di schema e citation rate, quindi la prova è mista. Quello che è certo è che lo schema costa poco da implementare e non fa danno.

L’HTML semantico è altrettanto importante. Gli agenti come Atlas e Comet leggono l’accessibility tree, non il rendering pixel. Un <div onclick> non è un pulsante per loro: è un blocco di testo. Sostituire div generici con <button>, <nav>, <main>, <article> e aggiungere alt esplicativi alle immagini fa più per la SEO AI di tanti tweak costosi. WebAIM nel Million Report di febbraio 2026 ha rilevato 56,1 errori di accessibilità medi per pagina nel top milione di siti: c’è margine ovunque.

Interventi tecnici: rendering, performance, schema entity-rich

Se il sito è una single-page application client-side, il primo HTML che arriva al server è uno shell vuoto. GPTBot e ClaudeBot non eseguono JavaScript, quindi vedono niente. Il fix è server-side rendering o static site generation: in Next.js sono entrambi attivabili in poche ore di lavoro, in Nuxt è il default, in SvelteKit pure. Il test in 30 secondi è un curl con user-agent GPTBot sulla tua homepage: se la risposta non contiene il testo principale dei tuoi contenuti, hai un problema strutturale che nessun fix di superficie risolve.

Sulla performance, gli agenti AI lavorano con timeout di retrieval stretti. La stima ingegneristica condivisa nel settore è 1-5 secondi per richiesta, anche se i vendor non pubblicano numeri ufficiali. Un sito che impiega tre secondi a caricare il contenuto critico viene letto male o non letto affatto da un agente che sta eseguendo dieci task in parallelo. I Core Web Vitals restano rilevanti, e secondo i dati Web Almanac 2025 il 52% dei siti mobile fallisce almeno una metrica core nel field data. Migliorare LCP e INP non è opzionale.

Sul versante content strategy ho scritto un pezzo che integra il discorso lato testo, la mia content strategy GEO 2026 con dati aggiornati è il pezzo che spiega come scrivere per essere citati nelle risposte AI.

I limiti di questa analisi e cosa ancora non sappiamo

Voglio essere chiaro su cosa questo articolo non ti dice, perché ho visto troppi consulenti vendere "ottimizzazione per browser AI" come pillola magica. Cinque cose le tengo dichiarate prima del pezzo, non dopo.

Primo limite: i dati di adozione di Atlas e Dia sono opachi. OpenAI e Atlassian non hanno pubblicato MAU, download attivi o quota di mercato. Tutto quello che leggi su Atlas che ha "X milioni di utenti" viene da press release o estrapolazioni indirette. Comet è l’unico caso con dati pubblici verificabili. Ogni stima sull’impatto SEO basata su numeri di adozione invece che su dati comportamentali andrebbe presa con scetticismo.

Secondo limite: il referral traffic da AI è ancora poco. Similarweb misura lo 0,5-1% del traffico organico totale come riconducibile a piattaforme AI, e questo numero è in lieve calo nel primo trimestre 2026. Ottimizzare per browser AI mentre il 99% del traffico arriva ancora da Google classico è una scelta di posizionamento futuro, non un imperativo oggi. Il versante Google standard non si tocca.

Terzo limite: lo standard llms.txt è vivo solo sulla carta. Nessun vendor LLM ha pubblicamente confermato di consumarlo dai siti esterni, e John Mueller ha dichiarato esplicitamente che Google non lo usa. SE Ranking, su 300.000 domini, non ha trovato correlazione fra presenza di llms.txt e citazioni AI. Lo metti perché costa zero, non perché sposti la lancetta.

Quarto limite: i benchmark di "agentic capability" sono tutti vendor-driven. Non esiste oggi un report indipendente che confronti Atlas, Comet e Dia su task success rate, velocità, affidabilità in modo replicabile. Tutto quello che leggi sulle "capacità agentiche" arriva da review giornalistiche o da blog post di consulenti, raramente da test sistematici.

Quinto limite: il quadro normativo è in movimento. La causa Reddit contro Perplexity, le proposte W3C su AI access manifest, l’AI Act europeo e le mosse del Garante della Privacy italiano sui contenuti generati possono cambiare le regole nei prossimi diciotto mesi. Quello che oggi è una best practice volontaria potrebbe diventare un requisito di compliance.

Da dove iniziare se hai un’ora oggi

Se hai un’ora libera e gestisci il tuo sito, questo è l’ordine in cui faccio le cose nei progetti dei clienti per portare a casa il massimo con il minimo investimento.

  • Minuti 0-15: audit user-agent: apri i log server o il dashboard del CDN. Identifica i tre user-agent AI più frequenti nelle ultime 4 settimane (GPTBot, ClaudeBot, PerplexityBot tipicamente). Confrontali col robots.txt. Decidi consapevolmente cosa bloccare e cosa lasciare passare, in base al valore del tuo contenuto.
  • Minuti 15-30: test rendering con curl: simula GPTBot con un comando curl sulla homepage e su tre pagine principali. Se la risposta non contiene il testo dei tuoi articoli o le tue offerte, hai un problema di server-side rendering che batte tutto il resto.
  • Minuti 30-45: schema audit rapido: apri Google Rich Results Test su cinque pagine rappresentative. Verifica Organization, Article, Product, FAQPage. Lista le proprietà mancanti, prioritizza le più visibili (datePublished, author, sameAs).
  • Minuti 45-55: segmenti GA4 AI: crea il segmento "Traffico da AI" con sorgenti chat.openai.com, perplexity.ai, claude.ai, copilot.microsoft.com, gemini.google.com. Confronta tasso di conversione e tempo medio sul sito con il canale organico. Spesso il referral AI converte meglio dell’organico anche con volumi minori.
  • Minuti 55-60: piano azione: metti in fila i tre fix con il rapporto impatto-costo migliore. Schema markup è quasi sempre il primo. SSR è il secondo se hai una SPA. Robots.txt è gratis ma decisione strategica, prendila bene.

Questa non è la roadmap completa, è la prima ora. Un audit serio richiede settimane di lavoro su log, monitoring, test sistematici. Ma in sessanta minuti capisci dove sta il tuo sito sulla mappa e smetti di rincorrere idee come llms.txt mentre la tua homepage è invisibile a GPTBot.

Quello che osservo nei prossimi mesi

Tre fronti che mi sono segnato e su cui non ho ancora abbastanza dati per dirti come comportarti, ma che cambieranno il quadro entro fine 2026. Primo, l’integrazione di Dia con la suite Atlassian potrebbe creare il primo browser AI agentico nativamente B2B, con caratteristiche di crawling diverse rispetto a quelli consumer. Secondo, OpenAI ha annunciato per il secondo trimestre 2026 il rilascio di Atlas su Windows, e questo allargherà il pubblico oltre il segmento Mac che oggi domina. Terzo, il caso Reddit contro Perplexity, qualunque sia l’esito, fisserà un precedente sulla legittimità dei blocchi anti-scraping nelle giurisdizioni occidentali.

Sul tema della visibilità su ChatGPT e Bing in particolare ho scritto una guida specifica su come comparire nei risultati AI search con i passaggi pratici per essere citati anche se non sei un brand grande.

Se gestisci un sito e vuoi capire dove stai rispetto a questi tre browser, su quali servizi di consulenza SEO lavoro e come strutturo i percorsi lo trovi nella pagina dedicata. Mi puoi scrivere dalla pagina contatti per partire, i primi venti minuti sono gratis.

Domande Frequenti

Cambia il pattern di click e il tipo di lettore non umano che consuma il tuo sito. Gli agenti leggono la pagina nel sidebar e spesso non mandano l’utente sulla tua landing, riducendo il CTR organico classico (DataSlayer ha misurato un calo del 46,7% relativo quando appare un AI Overview). I siti citati nelle risposte AI però guadagnano click di qualità superiore, con un tasso di conversione fino a cinque volte più alto rispetto ai siti in top 10 non citati. Tradotto: la SEO non muore, si sposta dal "essere primo" all’ "essere citato".

I crawler dedicati di OpenAI (GPTBot, OAI-SearchBot) e Perplexity (PerplexityBot) rispettano robots.txt. Ma quando Atlas o Comet operano in agent mode, mandano la stessa user-agent string di un Chrome qualsiasi, indistinguibile da un visitatore umano: il robots.txt non si applica. ChatGPT-User e Perplexity-User, gli user-agent dichiarati per richieste user-initiated, ignorano esplicitamente robots.txt secondo la policy ufficiale OpenAI di gennaio 2026. Per bloccare davvero un agente serve un blocco a livello firewall sugli IP ufficiali del vendor, non una direttiva nel robots.txt.

Sì, perché sono fork di Chromium e usano il motore Blink+V8 standard. La pagina rendering la vedono uguale a Chrome. Diverso è il discorso per i crawler training (GPTBot, ClaudeBot, CCBot) che secondo Cloudflare e i 500 milioni di fetch GPTBot analizzati da Passionfruit nel 2025 leggono solo l’HTML iniziale, senza esecuzione JS. Per gli agenti come Atlas e Comet quello che conta non è il JavaScript, è l’accessibility tree: leggono la struttura semantica della pagina (heading, button, link, form), non i pixel.

GA4 non distingue ancora gli user-agent dei browser agentici dal Chrome standard, perché i vendor li mascherano deliberatamente. Quello che puoi tracciare è il referral traffic dalle piattaforme AI: chat.openai.com, perplexity.ai, claude.ai, copilot.microsoft.com, gemini.google.com. Crea un segmento dedicato in GA4 con queste sorgenti e confronta tasso di conversione e tempo medio col canale organico. Sui siti italiani che monitoro questa fonte pesa l’1-3% del traffico totale, con un tasso di conversione spesso superiore al canale organico.

Sì, e lo dico con dati alla mano. Similarweb misura il traffico totale da piattaforme AI sotto l’1% del traffico organico globale a inizio 2026, in lieve calo dal picco di ottobre 2025. Google resta il driver principale del traffico per il 95% dei siti italiani, e ChatGPT da solo rappresenta l’87,4% di tutto il traffico referral AI. La SEO classica (Core Web Vitals, indicizzazione, internal linking, schema) resta la base. Ottimizzare per browser AI senza aver risolto le basi è un investimento di posizionamento futuro, non sostituisce il presente.

È un rischio reale dichiarato da OpenAI stessa nel comunicato di lancio Atlas di ottobre 2025. Quando l’agente naviga e clicca sui risultati pubblicitari per conto dell’utente, genera traffico che assomiglia a un visitatore umano lato Google Ads ma non converte come un essere umano farebbe. Effetto collaterale: i modelli di smart bidding e le retargeting audience si "sporcano" con segnali non umani, e il sistema converge verso un pubblico che non è davvero il tuo target. La mitigazione passa per esclusioni di placement, monitoring del rapporto click-conversioni e per la valutazione di soluzioni come BotID di Vercel o Cloudflare Bot Management sui siti dove l’ad spend è importante.

Sull'autore

Claudio Novaglio

Claudio Novaglio

SEO Specialist, AI Specialist e Data Analyst con oltre 10 anni di esperienza nel digital marketing. Lavoro con aziende e professionisti a Brescia e in tutta Italia per aumentare la visibilità organica, ottimizzare le campagne pubblicitarie e costruire sistemi di misurazione data-driven. Specializzato in SEO tecnico, local SEO, Google Analytics 4 e integrazione dell'intelligenza artificiale nei processi di marketing.

Vuoi migliorare i tuoi risultati online?

Parliamo del tuo progetto. La prima consulenza è gratuita, senza impegno.