Errori di scansione nei progetti Onpage di SISTRIX

Può succedere che il Crawler SISTRIX non riesca a “catturare” completamente il contenuto di tutte le pagine. In questo tutorial analizzeremo i motivi più comuni, così come il loro contesto, e troveremo le soluzioni per risolverli.

Il Crawler SISTRIX

Tutti gli accessi legati a SISTRIX sono effettuati dal Crawler SISTRIX, il quale può essere identificato da due tratti distinti: da una parte lo user-agent, che deve “presentarsi” ad ogni accesso della pagina ed è impostato di default:

Mozilla/5.0 (compatible; SISTRIX Crawler; http://crawler.sistrix.net/)

Dall’altra parte, tutti gli indirizzi IP del Crawler SISTRIX rimandano all’host del dominio “sistrix.net”. Il nostro Crawler nell’IP 136.243.92.8, ad esempio, rimanderà la Reverse-DNS-Entry 136-243-92-8.crawler.sistrix.net.

Il Crawler SISTRIX controlla continuamente la velocità di caricamento delle pagine visitate, basandosi anche su quella delle nuove pagine richieste, in modo che il server non venga sovraccaricato. Per maggiori informazioni visita il sito: crawler.sistrix.net.

Nella sezione “Progetti” hai anche la possibilità di controllare lo user-agent e l’intensità della scansione del Crawler di SISTRIX. Tali impostazioni si trovano in: “Impostazioni progetto > Crawling”, nella finestra “Tempo Crawling” e “Impostazioni scansione”.

robots.txt

Prima di accedere ad un sito, il nostro Crawler richiederà un file chiamato robots.txt contenuto nella root directory e in ogni host del dominio. Se il Crawler troverà questo file, lo analizzerà e ne rispetterà minuziosamente le regole e le restrizioni. Saranno accettate le regole che valgono solo per “sistrix”, così come quelle generali con l’identificatore “*”. Se stai usando un file robots.txt, ti consigliamo di controllarne il contenuto per assicurarti che il Crawler SISTRIX non sia stato accidentalmente bloccato.

Se ricorri ad una sitemap per il file robots.txt, il nostro Crawler la accederà come base di scansione.

Cookies

Il Crawler SISTRIX non salverà i Cookies durante il controllo della pagina. Ti consigliamo di assicurarti che il nostro Crawler possa accedere a tutte le sezioni della pagina senza dover accettare i Cookies. Troverai l’IP del nostro Crawler all’interno di “Impostazioni progetto > Impostazioni scansione”

JavaScript

Il Crawler non utilizza JavaScript. Ti preghiamo di assicurarti che tutte le pagine siano accessibili come pagine HTML statiche, in modo che il nostro Crawler possa analizzarle.

Restrizioni lato server

Il Crawler SISTRIX può essere oggetto di restrizioni da parte del server. In questo caso, il nostro Crawler riceverà un messaggio di errore con un codice di stato http 403 (Restricted), quando accederà per la prima volta alla pagina, e non avrà accesso a nessuna pagina del server. Una simile restrizione può essere sistemata su diversi livelli di sistema. Un buon inizio potrebbe essere il controllo del file “.htaccess” dell’Apache-Webserver. Se non si troverà alcun indizio in questa sezione, ti consigliamo di contattare il provider o l’host. Sfortunatamente noi non possiamo disattivare da soli queste restrizioni.

Esempi di restrizioni comuni

Restrizioni legate a robots.txt

Se il file robots.txt blocca il nostro Crawler di SISTRIX, riceverai un errore chiamato “robots.txt blocca la scansione”. Ti consigliamo di controllare se sono presenti restrizioni generali (User-Agent: *) o specifiche (User-Agent: Sistrix) in questo file. Se hai anche cambiato lo user-agent nelle impostazioni del tuo Crawler di progetto, sarebbe meglio controllare anche quelle.

Nessuna pagina scansionata o scansione limitata a poche pagine

Sono numerosi i motivi per cui la scansione del nostro Crawler è limitata a un numero ristretto di pagine o addirittura a nessuna. Nel progetto Onpage, vai su “Insights > Modalità esperto” per visualizzare una lista estesa di tutti i documenti HTML del dominio scansionati. Il codice di stato lo troverai scorrendo brevemente verso destra nella tabella. Qui dovrebbe essere riportato il motivo per cui non tutte le pagine associate al dominio sono state scansionate.

  • 200: se il codice di stato è il 200, ma non sono comunque state scansionate altre pagine, la ragione potrebbe essere una delle seguenti:
    • Link interni mancanti: il nostro Crawler segue tutti i link interni, a meno che non lo blocchino. Ti preghiamo di controllare che ci siano tutti i link interni della pagina iniziale e che nessuna pagina obiettivo stia bloccando il nostro Crawler attraverso un file robots.txt o le impostazioni di scansione.
    • Impostazioni Geo-IP: per presentare il sito web nelle varie lingue degli utenti, l’IP verrà controllato dal Paese d’origine. Tutte le nostre scansioni sono effettuate in Germania, per cui è necessario che esista una whitelist per il nostro Crawler-IP, se desideri accedere a tutti i contenuti in lingua disponibili dietro alla barriera Geo-IP.
  • 301/302: se il codice di stato che appare è il 301 o il 302, ti consigliamo di controllare se il link conduce ad un dominio differente, ad esempio a sistrix.at, che a sua volta porta a sistrix.de attraverso un Redirect. Il Crawler di SISTRIX rimane sempre sul dominio (o sull’host o sulla directory) inserito nelle impostazioni del progetto. Creando un progetto per sistrix.at, ad esempio, il nostro Crawler riconoscerebbe il Redirect 301 e lo mostrerebbe nella sezione “Modalità esperto”, senza però seguirlo fino a sistrix.de, in quanto quest’ultimo è un dominio diverso.
  • 403: se invece viene immediatamente inviato un codice di stato 403, oppure se quest’ultimo è mostrato subito dopo la scansione di un paio di pagine (con codice 200), dovresti cercare di capire perché il server blocca il nostro Crawler e non gli permette di accedere alle pagine. Ti consigliamo di leggere il paragrafo “Restrizioni lato server”.
  • 5xx: se compaiono infine dei codici di stato 500 o 5xx nel campo corrispondente, significa che il server non è riuscito a prendersi cura della richiesta a causa di un errore legato al server stesso. In questo caso, ti consigliamo di attendere un paio di minuti e utilizzare poi la funzione “Riavvia Crawler”, posta in alto a destra. Se il codice di stato 5xx continua ad apparire, il server potrebbe essere sovraccarico e impossibilitato a mostrare le pagine.

Perché Google trova del contenuto diverso rispetto a SISTRIX?

Il nostro Crawler comincia sempre dalla pagina iniziale del progetto, anche se è comunque possibile modificare questa opzione aggiungendo altre pagine all’interno delle impostazioni di scansione. Da questo momento in poi, seguirà tutti i link interni che non risultano bloccati, finché risulteranno esauriti.

Può succedere però che, ad esempio, le pagine di arrivo AdWords non linkate internamente non appaiano nei risultati. Normalmente questo deriva dal fatto che non si vogliono influenzare i Tracking AdWords. Google sarà ovviamente consapevole dell’esistenza di tali pagine, ma queste non saranno visibili al nostro Crawler.

Inserendo una sitemap del tuo progetto su Google, potrebbe essere utile introdurre un link verso di essa all’interno del file robots.txt: in questo modo il nostro Crawler la riconoscerà e la userà come base per la scansione.

Un’altra ragione per la quale esistono delle differenze di valore tra le pagine indicizzate da Google e il numero di pagine scansionate dal tuo progetto Onpage potrebbe essere relativa a del contenuto duplicato all’interno dell’indice di ricerca di Google.