Febbraio 2026 è stato il mese più movimentato per gli algoritmi Google dall’autunno 2024. Due update separati in rapida successione, uno per la Search e uno per Discover, con pattern che confermano la direzione che Google sta prendendo da due anni. Ho analizzato i dati disponibili e, in mezzo alla complessità, è emersa un’azione concreta che da sola risolve il 75% dei problemi di crawl di molti siti. Partiamo dai fatti.
Core Update #1: Search (1-14 febbraio)
Google ha confermato il rollout di un broad core update il 1° febbraio 2026, completato il 14 febbraio. Due settimane esatte di volatilità, con Semrush Sensor che ha toccato 9.4 su 10 l’8 febbraio: tra i punteggi più alti registrati nella storia recente dello strumento.
Chi ha perso
Dall’analisi dei dati cross-industry emergono tre categorie colpite in modo ricorrente:
Siti con contenuto AI non supervisionato. Il pattern è ormai consolidato: Google non penalizza i contenuti AI in sé, ma penalizza la pubblicazione massiva senza editing umano. I siti dove l’AI generava il 90-100% dei contenuti senza revisione hanno subito i cali più significativi. Non è una novità, eppure ogni update alza ulteriormente l’asticella.
Parasite SEO. Contenuti di terze parti ospitati su domini ad alta autorità per sfruttarne il ranking, una pratica che Google sta smantellando sistematicamente dal 2024. Questo update ha esteso il lavoro degli update precedenti.
Siti con scarsa page experience. Pagine lente, interstitial invasivi, layout con problemi di CLS (Cumulative Layout Shift). Le performance hanno sempre contato, ma questo update sembra aver alzato la soglia. Diversi operatori hanno riportato correlazioni tra punteggi Core Web Vitals sotto soglia e perdite di posizioni.
Chi ha guadagnato
Il pattern dei vincitori è lo specchio dei perdenti:
Siti con E-E-A-T dimostrabile. Autori identificati con credenziali verificabili, contenuti che dimostrano esperienza diretta, reputazione off-site confermata da menzioni e recensioni. L’E-E-A-T ormai è un requisito, non un “nice to have”. I siti che identificano chiaramente i propri autori e dimostrano expertise reale nel contenuto hanno sovraperformato in modo consistente.
Architetture con autorità topicale. I siti organizzati per cluster tematici, con una pagina pillar connessa a 10-15 articoli di approfondimento, hanno mostrato maggiore resilienza. La logica: Google valuta l’expertise a livello di topic, non di singola pagina. Un sito con 30 articoli ben collegati sulla SEO locale ha più probabilità di mantenere posizioni di un sito generico con un solo articolo sullo stesso tema.
Performance impeccabili. Core Web Vitals tutti verdi, caricamento veloce, zero layout shift. Il dato di contesto: solo il 49,7% dei siti mobile passa tutti e tre i Core Web Vitals. Chi è nel 50% virtuoso ha un vantaggio competitivo reale.
Core Update #2: Discover (dal 5 febbraio)
Il 5 febbraio, cinque giorni dopo il core update Search, Google ha lanciato il primo core update specifico per Discover nella storia dell’azienda. Il rollout è durato 22 giorni e si è completato il 27 febbraio 2026. Non un update che impatta Discover come effetto collaterale di modifiche alla Search, ma un update dedicato esclusivamente a come i contenuti vengono selezionati e mostrati nel feed Discover.
Perché Discover merita un update dedicato
Un dato spiega tutto: secondo un’analisi su oltre 400 news publisher, la quota di traffico Google proveniente da Discover è quasi raddoppiata in due anni, passando dal 37% nel 2023 a circa il 68% nel 2025, mentre il traffico dalla Search tradizionale è sceso dal 51% al 27%. Per molti publisher (travel, lifestyle, tech news) Discover è ormai il canale dominante. Un cambiamento algoritmico su questa superficie ha effetti diretti sul fatturato.
La differenza fondamentale: nella Search, Google risponde a una query esplicita. In Discover, Google predice cosa l’utente vuole leggere, basandosi su cronologia di navigazione, interessi, posizione e comportamento nell’app. Non ci sono keyword da ottimizzare, perché si tratta di un sistema di raccomandazione da comprendere.
Cosa cambia con l’update
Google ha dichiarato tre obiettivi:
Più contenuti localmente rilevanti. I siti con base nel paese dell’utente avranno più visibilità. Per i siti italiani, quando l’update arriverà in Italia (al momento è attivo solo per utenti anglofoni USA), questo potrebbe essere positivo: i contenuti in italiano per utenti italiani dovrebbero avere la priorità.
Meno clickbait. Google ha introdotto un classificatore “headline-content alignment” che confronta la promessa del titolo con la sostanza dell’articolo. Titoli sensazionalistici che non mantengono la promessa subiscono una demozione.
Più contenuti approfonditi da siti con expertise dimostrata. Google valuta l’expertise topic per topic. Un sito di news locale con una sezione dedicata al giardinaggio può avere expertise riconosciuta nel giardinaggio, anche se copre altri argomenti. Un sito di recensioni film che scrive un singolo articolo sul giardinaggio probabilmente no.
Dati iniziali
NewzDash ha pubblicato un’analisi confrontando la visibilità Discover prima (25-31 gennaio) e dopo (8-14 febbraio) l’update:
- I feed di New York, California e USA generale mostravano in gran parte gli stessi contenuti, ma ciascuno includeva storie locali uniche
- I domini locali di New York apparivano circa cinque volte più spesso nel feed di New York rispetto a quello della California, e viceversa
- Il numero di domini unici nei feed USA è diminuito: meno siti, ma più pertinenti
Caveat importante: il periodo post-update coincide con il Super Bowl, le Olimpiadi Invernali e la ICC Men’s T20 World Cup, eventi che possono gonfiare artificialmente la visibilità delle categorie News e Sport.
Il dato operativo: il 75% dello spreco di crawl viene dai filtri
In mezzo ai due update, è emerso un dato pratico che vale più di mille analisi teoriche. Google ha confermato che il 75% delle inefficienze di crawl proviene dalla navigazione filtrata e dagli URL filtrati.
Esempi concreti: filtri prodotto che creano infinite variazioni di URL (/scarpe/?colore=rosso&taglia=42&materiale=pelle&ordina=prezzo), parametri di ordinamento (?sort=price-asc, ?sort=rating-desc), combinazioni tag/categorie che non aggiungono valore unico.
Queste pagine spesso non rankano, non convertono, e consumano crawl budget che Google potrebbe usare per indicizzare le pagine che contano. Per un e-commerce con migliaia di prodotti, il numero di URL filtrati può essere ordini di grandezza superiore al numero di pagine reali.
Come risolvere (checklist operativa)
Questa è l’azione a più alto rapporto impatto/sforzo che puoi fare durante o dopo un core update:
1. Identifica le pagine filtrate
Apri Google Search Console → Pagine → Filtro “Non indicizzata” e “Esclusa”. Cerca pattern di URL con parametri (?, &, sort=, filter=, color=, size=). In alternativa, fai un crawl con Screaming Frog (versione free fino a 500 URL) e filtra per URL con query string.
2. Decidi cosa tenere e cosa bloccare
La regola: se una combinazione di filtri genera una pagina con contenuto unico e utile per l’utente (es. una landing page “scarpe running uomo”), tienila e ottimizzala. Se genera solo una variante della stessa pagina con ordine diverso o filtri che nessuno cerca, bloccala.
3. Implementa il blocco
Tre approcci, dal più semplice al più robusto:
| Metodo | Quando usarlo | Implementazione |
|---|---|---|
| Meta robots noindex | Pagine filtrate singole | <meta name="robots" content="noindex"> sulla pagina |
| Robots.txt | Pattern di URL prevedibili | Disallow: /*?sort= nel robots.txt |
| Canonical tag | Varianti che puntano a una versione principale | <link rel="canonical" href="/scarpe-running/"> |
4. Verifica l’impatto
Dopo 2-4 settimane, controlla in Search Console: il numero di pagine “Crawled – currently not indexed” dovrebbe diminuire, e le pagine importanti dovrebbero essere crawlate più frequentemente.
Caso pratico: quanto può incidere
Ho visto siti e-commerce dove il rapporto tra pagine filtrate e pagine reali era di 50 a 1. Un catalogo di 2.000 prodotti generava 100.000 URL filtrati. Dopo aver implementato il blocco con robots.txt e canonical tag, la frequenza di crawl sulle pagine prodotto è aumentata visibilmente in 3-4 settimane. E con il core update di febbraio, quelle pagine hanno mantenuto o migliorato le posizioni, mentre i competitor con crawl waste non gestito hanno perso terreno.
Come affrontare il post-update: tempistica e strategia
Non reagire durante il rollout
Il consiglio che Google ripete e che i dati confermano: non fare cambiamenti drastici durante il rollout di un core update. Le fluttuazioni nei primi 14 giorni sono normali e spesso si riassestano. La best practice è aspettare almeno 14 giorni dopo il completamento del rollout prima di prendere decisioni SEO importanti.
Per il core update Search di febbraio, completato il 14 febbraio, la finestra di analisi affidabile è già aperta. Per il Discover update, completato il 27 febbraio, la finestra di analisi affidabile inizia dalla seconda settimana di marzo.
Analisi in 4 step
Step 1 (ora): documenta la situazione attuale. Screenshot dei ranking, del traffico, delle posizioni chiave. Se non l’hai fatto prima dell’update, fallo adesso: anche i dati “dopo” sono utili per confronti futuri.
Step 2 (fine febbraio/inizio marzo): confronta medie settimanali, non dati giornalieri. Cerca pattern: quali pagine hanno perso? Quali query? C’è un tema comune (es. tutte le pagine senza autore identificato, tutte le pagine con CLS alto)?
Step 3 (marzo): identifica azioni mirate per le pagine colpite. Non riscrivere tutto il sito; piuttosto intervieni sulle pagine specifiche con i problemi specifici che l’analisi ha evidenziato.
Step 4 (aprile e oltre): implementa, monitora, itera. I siti colpiti da un core update possono recuperare nel successivo, a patto di aver fatto miglioramenti genuini nella qualità.
Il dato di contesto per i clienti
Google rilascia tipicamente 3-4 core update confermati l’anno. Nel 2025 ne ha rilasciati 4, nel 2024 erano 7 (più frequenti ma meno impattanti singolarmente). I siti costruiti su fondamenta solide, con contenuti basati sull’esperienza reale, architettura pulita e performance impeccabili, subiscono oscillazioni minori ad ogni update. Chi costruisce per il lungo periodo non deve temere ogni singolo aggiornamento. Questo core update conferma anche che i segnali E-E-A-T sono ormai centrali per la SEO delle PMI italiane, e lo diventano ancora di più ora che Gemini alimenta sia Google sia Siri.
Aggiornamento marzo 2026: la volatilità prosegue
Aggiornato l’11 marzo 2026.
La volatilità nei ranking Google non si è calmata dopo il completamento del Discover update. Semrush Sensor ha toccato picchi di 9,5 nella prima settimana di marzo, e i tool di tracking segnalano movimenti quotidiani significativi. Alcuni blog hanno pubblicato articoli su un presunto “March 2026 Core Update”, ma è importante fare una distinzione: al 10 marzo, il Google Search Status Dashboard non elenca alcun core update di marzo. L’ultimo aggiornamento registrato resta il February 2026 Discover update.
Barry Schwartz (Search Engine Roundtable) conferma che la turbolenza è reale ma non confermata da Google. La spiegazione più probabile: Google sta rilasciando piccoli aggiornamenti continui ai sistemi di ranking, come ha esplicitamente dichiarato nella documentazione aggiornata a febbraio (“smaller core updates happen on an ongoing basis”). Non sono abbastanza grandi per un annuncio ufficiale, ma il loro effetto cumulativo è percepibile.
Un dato aggiuntivo dal report WordStream di marzo 2026: il traffico SEO tradizionale è ancora 34 volte superiore al traffico proveniente dai chatbot AI. Il 60% delle aziende non ha ancora registrato impatti sul traffico web dalle ricerche AI assistite. I fondamentali della SEO per PMI restano la priorità; la visibilità AI è un’estensione importante ma non un sostituto.
Il consiglio resta lo stesso: nessuna modifica drastica durante la turbolenza. Monitora i dati in Search Console con medie settimanali e aspetta che la situazione si stabilizzi prima di trarre conclusioni.
Domande frequenti
Il core update di febbraio 2026 ha colpito l’Italia?
Sì. Il core update Search (1-14 febbraio) è globale e ha impattato le SERP italiane. Il Discover core update (5-27 febbraio) è al momento attivo solo per utenti anglofoni negli USA, ma verrà esteso a tutti i paesi e lingue nei prossimi mesi.
Come faccio a sapere se il mio sito è stato colpito?
Confronta il traffico organico di Search Console nelle due settimane precedenti l’update (15-31 gennaio) con le due settimane successive al completamento (15-28 febbraio). Usa medie settimanali, non dati giornalieri. Cali superiori al 15-20% meritano indagine.
Quanto tempo serve per recuperare da un core update?
Google non fornisce tempistiche, ma storicamente i siti che apportano miglioramenti genuini possono vedere recuperi parziali o completi con il core update successivo (tipicamente 3-4 mesi dopo). Non esiste una “fix” rapida: servono miglioramenti reali nella qualità del contenuto e dell’esperienza.
Il crawl waste dai filtri può davvero influenzare il ranking?
Non direttamente, ma indirettamente sì. Se Googlebot spende il 75% del crawl budget su pagine filtrate inutili, le pagine importanti vengono crawlate e indicizzate meno frequentemente. Durante un core update, le pagine aggiornate e correttamente indicizzate hanno un vantaggio su quelle che Google fatica a raggiungere.
Se il tuo sito e-commerce ha migliaia di URL filtrati non gestiti, o se vuoi capire come il core update di febbraio ha impattato le tue posizioni, contattami per un audit. Analizziamo la situazione e identifichiamo le azioni prioritarie.



