Come aiutare Google a trovare i tuoi contenuti.

Aiutare Google a trovare i tuoi contenuti

Il primo passo per portare il tuo sito su Google consiste nell'assicurarti che Google possa trovarlo. Il modo migliore per farlo è inviare una Sitemap. Una Sitemap è un file sul sito che comunica ai motori di ricerca le pagine nuove o modificate. Scopri di più su come creare e inviare una Sitemap.

Google rileva le pagine anche tramite link da altre pagine. Scopri come incoraggiare gli utenti a scoprire il tuo sito tramite la promozione.

Indicare a Google le pagine di cui non eseguire la scansione

Bloccare la scansione indesiderata di informazioni non sensibili usando un file robots.txt

Un file robots.txt indica ai motori di ricerca se possono accedere a parti del sito e quindi eseguirne la scansione. Questo file, che deve essere denominato "robots.txt", viene inserito nella directory principale del sito. È possibile che le pagine bloccate da robots.txt siano comunque sottoposte a scansione, pertanto utilizza un metodo più sicuro per le pagine che contengono informazioni sensibili.

# brandonsbaseballcards.com/robots.txt
# Tell Google not to crawl any URLs in the shopping cart or images in the icons folder,
# because they won't be useful in Google Search results.
User-agent: googlebot
Disallow: /checkout/
Disallow: /icons/

Ti consigliamo di non eseguire la scansione delle pagine del sito che non sono utili per gli utenti, affinché non appaiano nei risultati di ricerca restituiti dai motori. Tieni presente che, se il sito utilizza sottodomini e non intendi sottoporre a scansione alcune pagine in un determinato sottodominio, dovrai creare un file robots.txt separato per questo sottodominio. Per ulteriori informazioni sul file robots.txt, consulta questa guida all'utilizzo dei file robots.txt.

Scopri diversi altri modi per impedire la visualizzazione di contenuti nei risultati di ricerca.

Pratiche non consigliate:

  • Consentire la scansione da parte di Google delle pagine dei risultati di ricerca interne. Agli utenti non piace fare clic su un risultato in un motore di ricerca solo per arrivare a un'altra pagina dei risultati di ricerca sul tuo sito.
  • Consentire la scansione di URL creati come risultato di servizi proxy.
Utilizzare metodi più sicuri per le informazioni sensibili

Un file robots.txt non è un modo efficace o appropriato per bloccare materiale sensibile o riservato. Indica semplicemente ai normali crawler che quelle pagine non sono per loro, ma non impedisce al tuo server di inviare tali pagine a un browser che le richiede. Un motivo è che i motori di ricerca potrebbero comunque fare riferimento agli URL bloccati (mostrando soltanto l'URL, senza il link del titolo o lo snippet) se sono presenti link a tali URL in altre posizioni su Internet (ad esempio, i log dei referrer). Inoltre, i motori di ricerca non conformi o dannosi che non riconoscono il Robots Exclusion Standard potrebbero non seguire le istruzioni del file robots.txt. Infine, un utente curioso potrebbe esaminare le directory o le sottodirectory nel file robots.txt e indovinare l'URL dei contenuti che non intendi mostrare.

In questi casi, utilizza il tag noindex se vuoi semplicemente che la pagina non venga visualizzata su Google, ma non ti importa che venga raggiunta dagli utenti in possesso del link. Per una reale sicurezza, ricorri a metodi di autorizzazione veri e propri, come richiedere agli utenti l'inserimento di una password o eliminare completamente la pagina dal sito.

Trovato questo articolo interessante? Condividilo sulla tua rete di contatti Twitter, sulla tua bacheca su Facebook o semplicemente premi "+1" per suggerire questo risultato nelle ricerche in Google, Linkedin, Instagram o Pinterest. Diffondere contenuti che trovi rilevanti aiuta questo blog a crescere. Grazie! CONDIVIDI SU!

Ar-themes Logo

Hugo Repetto

Tutti noi crediamo di avere qualcosa da insegnare, tutti noi abbiamo una nostra storia personale che ci rende unici e ineguagliabili.

Nessun commento:

Posta un commento