Il Tier 2 non è semplice estensione del Tier 1, ma una trasformazione qualitativa: mentre il primo offre una visione generale di temi come “marketing digitale” o “SEO di base”, il Tier 2 si fonde con l’analisi semantica profonda per identificare keyword a bassa concorrenza che, se trattate con precisione, generano posizionamenti duraturi e rilevanti. Questa evoluzione richiede un processo esperto che vada oltre la semplice raccolta di keyword: si tratta di costruire un grafo di conoscenza dinamico, dove ogni termine diventa un nodo interconnesso a concetti affini, entità specifiche e intenti di ricerca impliciti. Il nodo centrale è il tema Tier 1 (es. “ottimizzazione SEO”), ma il Tier 2 lo espande con cluster tematici dettagliati, analisi NER, mapping semantico e una struttura modulare del contenuto che risponde con granularità ai comportamenti effettivi degli utenti Italiani.
Il problema: perché il Tier 2 tradizionale fallisce senza semantica profonda
La maggior parte dei contenuti Tier 2 si basa su keyword selezionate per volume medio-basso e rilevanza superficiale, ignorando la complessità semantica reale. Un’analisi superficiale produce cluster poco differenziati, mancando di identificare entità correlate, sinonimi o relazioni gerarchiche che renderebbero il contenuto un punto di riferimento per ricerca implicita. Ad esempio, una keyword come “ottimizzazione landing page” può includere sottotemi come “A/B testing”, “copywriting persuasivo”, “velocità di caricamento” e “mobile-first”, ma senza mappatura semantica, questi restano isolati, limitando il posizionamento ai soli query generali. Il Tier 2 avanzato richiede un processo che trasformi il tema generico in un grafo di concetti interconnessi, usando dati NLP per rivelare relazioni nascoste e intenti impliciti.
“Un contenuto Tier 2 senza analisi semantica è come una mappa incompleta: mostra la strada, ma non i sentieri secondari che portano al risultato.” – Esperto SEO Italiano, 2024
Fase 1: raccolta e categorizzazione di keyword a bassa concorrenza con filtri avanzati
Il primo passo esperto non è solo raccogliere keyword, ma selezionare quelle a bassa concorrenza (<10K ricerca mensile), alta rilevanza tematica e basso ostacolo tecnico per posizionamento. Usa strumenti NLP come Clearscope, Ahrefs o Ubersuggest con filtri personalizzati:
– Filtro di volume di ricerca: meno di 10K mese per evitare mercati saturi
– Filtro di rilevanza tematica: keyword strettamente collegate al tema Tier 1, verificate con analisi co-occorrenza e sinonimi
– Filtro di difficoltà: <30/100 su Ahrefs per garantire fattibilità
– Identifica varianti linguistiche regionali (es. “landing page” vs “pagina di destinazione”) per catturare domande diverse degli utenti Italiani
Esempio pratico: dalla keyword “ottimizzazione landing page” estrai “copy persuasivo landing page”, “test A/B landing page”, “velocità caricamento landing page”, “mobile optimization landing page”, ognuna con intento specifico (informativo, transazionale, tecnico).
- Usa SEMrush per raccogliere keyword con volume <10K e alta rilevanza
- Applica un filtro NLP per eliminare keyword generiche o troppo ampie
- Categorizza per intento: informativo (es. “cosa è”), navigazionale (es. “landing page template”), transazionale (es. “come ottimizzare landing page”)
Fase 2: estrazione e clusterizzazione di topic semantici con BERTopic e LDA
Trasforma le keyword in cluster tematici avanzati, superando analisi keyword isolate. Usa BERTopic per clusterizzazione basata su embeddings contestuali (BERT), che cattura significati sottili e gerarchie concettuali.
Fase 2.1: genera embedding testuali con `sentence-transformers` (modello `all-MiniLM-L6-v2` per efficienza e precisione)
from sentence_transformers import SentenceTransformer
model = SentenceTransformer(‘all-MiniLM-L6-v2′)
keywords = [“ottimizzazione landing page”, “copy persuasivo landing page”, “test A/B landing page”, …]
embeddings = model.encode(keywords)
Fase 2.2: applica clustering con BERTopic, ottimizzando parametri per coerenza semantica
from bertopic import BERTopic
topic_model = BERTopic(language=’it’, verbose=True)
topics, probs = topic_model.fit_transform(embeddings, min_cluster_size=3)
Fase 2.3: valuta coerenza dei cluster con score di topic coherence (UCI) e confronta con keyword originali
Tabella 1: Esempio di clusterings BERTopic per “ottimizzazione landing page”
| Cluster | Keywords (esemplari) | Intent | Coherence Score (UCI) |
|---|---|---|---|
| Intento informativo | “come migliorare copy landing page” | “copywriting landing page”, “copy persuasivo landing page” | 0.82 |
| Intento transazionale | “landing page template ottimizzato” | “template landing page SEO”, “landing page ottimizzazione template” | 0.89 |
| Intento tecnico | “velocità caricamento landing page” | “test velocità landing page”, “ottimizzazione caricamento landing page” | 0.76 |
Un cluster con coerenza <0.75 indica necessità di rifinimento: aggiungi sottocategorie o riconosci relazioni con concetti correlati.
Fase 3: analisi NER e mappatura delle entità per arricchire il grafo di conoscenza
Usa NER con spaCy in italiano per identificare entità chiave (es. “test A/B”, “copywriting”, “velocità di caricamento”, “mobile-first”) e associarle ai cluster. Questo arricchisce il contenuto con riferimenti semantici precisi, migliorando la fattibilità SEO e la comprensione contestuale da parte dei motori.
Esempio: keyword “test A/B landing page” → entità:
Tabella 2: Entità NER estratte da keyword Tier 2
| Entità | Frequenza | Ruolo semantico |
|---|---|---|
| test A/B | 5 | metodologia di verifica |
| copywriting | tecnica di scrittura persuasiva | |
| velocità di caricamento | fattore tecnico di performance | |
| mobile-first | principio di design | |
| landing page | pagina di destinazione |
“L’entità ‘test A/B’ non è solo una keyword: è un nodo centrale per un grafo che collega metodologie, tecniche e risultati misurabili.” – Esperto SEO, 2024
Fase 4: costruzione del grafo di conoscenza e modello di contenuto modulare
Il grafo di conoscenza integra keyword, cluster, entità e relazioni semantiche (sinonimi, iperonimi, associazioni dirette). Ogni nodo rappresenta un concetto, i collegamenti sono relazioni semantiche misurate da algoritmi di similarità.
Esempio