Se gestisci un sito web, non puoi fare a meno di conoscere il file robots.txt e come usarlo correttamente.
Questo piccolo ma potente file gioca un ruolo fondamentale nella SEO del tuo sito, poiché aiuta i motori di ricerca, come Google, a determinare quali pagine del tuo sito possono essere scansionate, e quali no.
Un robots.txt ben configurato aiuta a gestire il crawl budget, evitando che i motori di ricerca sprechino risorse su contenuti non rilevanti per l’indicizzazione.
Capirai quindi che conoscere a fondo come funziona il robots.txt è essenziale per ottimizzare il tuo sito e garantirti che Google e gli altri crawler esplorino solo ciò che è davvero utile per il tuo posizionamento.
In questa guida completa, ti spiegheremo passo dopo passo:
- Cos’è e come funziona il file robots.txt
- Come crearlo correttamente
- Come testarlo per evitare errori
- Come aggiornarlo con facilità
- Gli errori comuni da evitare
Alla fine, avrai tutte le informazioni necessarie per fare in modo che il tuo sito sia nelle migliori condizioni per essere scansionato e indicizzato da Google, senza rischiare di bloccare pagine importanti.
Che cos’è il file robots.txt?
Il file robots.txt è un file di testo che fornisce istruzioni ai crawler dei motori di ricerca su quali pagine del tuo sito web possono o non possono essere scansionate.
È uno strumento fondamentale per controllare l’accesso ai contenuti e ottimizzare l’indicizzazione delle pagine nei risultati di ricerca.
Come funziona il file robots.txt?
Quando un crawler visita un sito, la prima cosa che fa è cercare il file robots.txt nella directory principale del sito web.
Se il file è presente, il crawler segue le direttive al suo interno.
Le istruzioni sono suddivise in:
- User-Agent: specificano a quale motore di ricerca si applicano;
- Direttiva Disallow: per bloccare l’accesso a determinate pagine del sito;
- Direttiva Allow: per consentire l’accesso alle pagine consentite.
È importante ricordare che il file robots.txt non impedisce l’indicizzazione delle pagine bloccate, ma solo la loro scansione.
Se desideri escludere una pagina dai risultati di ricerca, devi utilizzare i meta tag robots direttamente nel codice HTML della pagina.
Come creare un file robots.txt?
Creare un file robots txt per il tuo sito web è un processo abbastanza semplice, che può essere fatto in vari modi, dal più semplice, perfetto anche per chi non ha competenze tecniche, al più complesso.
- Utilizzo di Plugin SEO (per WordPress e CMS)
Se hai un sito WordPress o su un altro CMS, il modo più facile per creare il tuo file robots.txt è utilizzare un plugin SEO come Yoast SEO, Rank Math o All in One SEO. Questi strumenti ti permettono di creare e modificare il file direttamente dalla dashboard, senza la necessità di accedere al server o fare modifiche manuali. - Generatori Online di Robots.txt
Esistono diversi generatori di robots.txt online che ti permettono di creare il file in pochi clic. Strumenti come SEOBook Robots.txt Generator o Google Robots.txt Generator sono molto facili da usare. Dopo aver creato il file, basta caricarlo nella root del tuo sito tramite FTP o il file manager del tuo hosting. - Creazione Manuale con un Editor di Testo
Se preferisci avere un maggiore controllo, puoi creare manualmente il file con un semplice editor di testo come Notepad o il blocco note. Scrivi le direttive necessarie e salvalo come robots.txt. Successivamente, caricalo nella root del tuo sito tramite FTP o il pannello di gestione dell’hosting.
Dopo aver creato il file, è sempre una buona pratica verificare la configurazione con Google Search Console per evitare errori che potrebbero impedire ai crawler di Google di scansionare correttamente il tuo sito web.
Come testare e validare il file robots.txt?

Dopo aver creato il tuo file robots.txt, è essenziale testarlo per assicurarti che funzioni correttamente e non blocchi accidentalmente la scansione delle pagine del tuo sito da parte dei motori di ricerca.
Il modo più semplice e affidabile per testare il file è attraverso Google Search Console. Questo strumento ufficiale di Google ti permette di verificare se il file robots.txt è configurato correttamente e se le pagine web vengono scansionate come previsto.
Per testare il file, accedi a Google Search Console, vai nella sezione “Strumento di Test per Robots.txt” e inserisci l’URL del file. In questo modo, Google ti mostrerà eventuali errori nel file e ti indicherà se il blocco di determinate pagine è stato applicato correttamente.
Utilizzare questo strumento è una delle best practice per garantire che non vengano impedite scansioni delle pagine importanti, evitando di compromettere l’indicizzazione nelle pagine dei risultati di ricerca.
Errori comuni e come evitarli

Anche piccoli errori nel file robots.txt possono avere un grande impatto sulla visibilità del tuo sito nei risultati di ricerca. Ecco i più comuni e come evitarli.
Bloccare per Errore l’Intero Sito Web
Un errore critico è l’utilizzo della seguente direttiva:
User-agent: * Disallow: /
Questa regola impedisce ai crawler dei motori di ricerca di accedere all’intero sito, bloccandone l’indicizzazione. Per evitarlo, assicurati di usare direttive specifiche per le pagine che desideri escludere, senza bloccare l’intero sito.
Impedire l’Indicizzazione di Risorse Importanti
Un altro errore comune è bloccare file essenziali come CSS o JavaScript, che potrebbero compromettere la corretta scansione e indicizzazione del sito. Ad Esempio:
Disallow: /css/ Disallow: /js/
Controlla che queste regole non siano nel file robots.txt. Se non necessarie, rimuovile per garantire che le pagine siano correttamente renderizzate e scansionate.
Non Aggiornare il Robots.txt Dopo Modifiche al Sito
Dopo ogni aggiornamento o modifica del sito, verifica che il robots.txt sia ancora valido. Usa Google Search Console per testarlo e assicurarti che le nuove pagine siano correttamente accessibili ai crawler e non vengano accidentalmente bloccate.
Come aggiornare il file robots.txt

Aggiornare il file robots.txt è un’operazione cruciale per garantire che i crawler dei motori di ricerca scansionino correttamente il tuo sito web e che tutte le pagine importanti siano indicizzate. Segui questi semplici passaggi per mantenerlo sempre aggiornato:
1. Modifica il file robots.txt
Se il file è già presente, scaricalo dal server o modificalo direttamente tramite il file manager del tuo hosting. Se utilizzi WordPress, puoi aggiornare il file tramite plugin SEO come Yoast SEO o Rank Math, che offrono un’interfaccia semplice per la gestione del robots.txt.
2. Aggiorna le direttive
Aggiungi o rimuovi regole in base alle nuove esigenze del tuo sito. Assicurati di non bloccare risorse fondamentali come file CSS e JavaScript, che sono essenziali per il corretto rendering delle tue pagine.
3. Carica il file aggiornato sul server
Utilizza FTP o il pannello di controllo del tuo hosting per caricare il file aggiornato. Il file robots.txt deve essere posizionato nella root del sito (ad esempio, www.tuosito.com/robots.txt) affinché i motori di ricerca possano trovarlo facilmente.
4. Testa e valida il file
Infine, usa strumenti come Google Search Console per verificare che non ci siano errori nel file e che non venga bloccata nessuna pagina importante. Esegui una scansione dell’intero sito per assicurarti che tutte le pagine che vuoi siano accessibili ai crawler e possano essere correttamente indicizzate.
Prenota una consulenza SEO con Orbita Digitale
Con noi, puoi prenotare una consulenza SEO per scoprire come ottimizzare al meglio il tuo sito e scalare le SERP.
Se invece desideri imparare a fare SEO in autonomia, dai un’occhiata al nostro nuovo corso SEO, disponibile nel 2025. Avrai accesso alle migliori pratiche SEO, imparando a ottimizzare il tuo sito o quello dei tuoi clienti, sia che tu sia un principiante o un esperto SEO.
