Come migliorare la SEO?
Come migliorare la SEO?
In che modo il Googlebot cataloga internet per poi fornirci come miglior risultato per chi ricerca il nostro prodotto, il nostro servizio, la nostra azienda ecc.
[DEFINIZIONE GOOGLE: Googlebot è stato progettato per essere distribuito su più computer per migliorare il rendimento e segue il ritmo di crescita del Web. Inoltre, per ridurre l'utilizzo di larghezza di banda eseguiamo molti crawler su computer vicini ai siti indicizzati nella rete. Pertanto, i tuoi log potrebbero indicare visite di google.com da diversi computer, tutte con lo user-agent Googlebot.]
La ricerca avviene ancor prima che tu possa scrivere sulla barra di ricerca Google. Ovvero?
Come da definizione il Googlebot è lo spider che crea l'indice di risultati in Google. Quando si effettua una ricerca i risultati non sono quelli "internet". Sono risultati presenti nell'indice Google attraverso appunto lo spider Googlebot.
Quindi nella pratica appena effettuiamo una ricerca Google ci fa visualizzare i risultati più pertinenti presenti nell'indice di Google.
Come fa Google tra milioni di documenti a darci la risposta più pertinente?
Google arriva ad utilizzare più di 200 variabili (domande). Le principali sono:
- Quante volte la parola di ricerca è contenuta nella pagina di destinazione
- Se la parola di ricerca è contenuta nel title
- Se la parola di ricerca è contenuta nell' URL
- Se la pagina contiene contiene sinonimi delle parole di ricerca
- La pagina di atterraggio è di buona qualità o pessima qualità ( PAGERANK ) (classificazione inventata da Larry Page e Sergey Brin. Praticamente il Pagerank è valutato in base alla quantità e la qualità dei link esterni che puntano alla nostra pagina. Questo fa capire quanto la rete link è importante.)
Tutte queste variabili permettono poi di valutare ogni singola pagina web e classificarla in ordine sulla SERP da poter fornire all'utente il risultato migliore.
I risultati di ricerca ormai vengono elaborati in millesimi di secondo e ognuno è visualizzato con la struttura:
TITOLO
URL
SNIPPET DI TESTO
Questo aiuta l'utente a definire ancora meglio quale sia il risultato che più gli interessa.
Una volta capite come la ricerca di Google funziona, si può capire meglio con che strumenti e in che modo ci si può spingere per indicizzarsi al meglio nei risultati di ricerca.
Oltre al fatto che i crawler esaminano le pagine web e seguono i link presenti in esse, in modo da aumentare l'indice Google per chi fa i siti vi è la possibilità di segnalare o escludere a Google il proprio sito attraverso la sitemap ed il robots.txt.
Praticamente Google è un'enorme libreria dove vengono indicizzati non solo i libri (siti web) ma le singole pagine.
Ma fino a che punto si spinge il software e la sua "intelligenza artificiale" nell'indicizzazione?
Google sta portando la ricerca a livelli superiori che vanno oltre la singola sintassi. Ad esempio può arrivare ad associare le parole ad elementi reali. Una casa è una casa e un animale è un essere vivente. Questo lo si sta ottenendo attraverso Google Knowledge Graph.Questo processo cerca di portare i risultati da un'indicizzazione di informazione ad una indicizzazione di conoscenza.
Se si cerca: "Leonardo Da Vinci" le risposte possono essere solo di catalogazione della pertinenza delle pagine. In realtà attraverso Google Knowledge Graph si passerà a contestualizzare la ricerca capendo che è un personaggio, che fa parte di un'epoca temporale ben precisa, che è un pittore, che è vissuto in un'epoca in cui si suggeriscono altri personaggi correlati alla sua persona.
Ad oggi questo tipo di ricerca è in fase di crescita è si deve ancora tarare su impostazioni di geolocalizzazione, ma sicuramente ci dà un input su come creare i contenuti dei nostri siti per avere nel futuro la tipologia di informazione corretta che permetta di essere sempre tra i primi.
[DEFINIZIONE GOOGLE: Googlebot è stato progettato per essere distribuito su più computer per migliorare il rendimento e segue il ritmo di crescita del Web. Inoltre, per ridurre l'utilizzo di larghezza di banda eseguiamo molti crawler su computer vicini ai siti indicizzati nella rete. Pertanto, i tuoi log potrebbero indicare visite di google.com da diversi computer, tutte con lo user-agent Googlebot.]
La ricerca avviene ancor prima che tu possa scrivere sulla barra di ricerca Google. Ovvero?
Come da definizione il Googlebot è lo spider che crea l'indice di risultati in Google. Quando si effettua una ricerca i risultati non sono quelli "internet". Sono risultati presenti nell'indice Google attraverso appunto lo spider Googlebot.
Quindi nella pratica appena effettuiamo una ricerca Google ci fa visualizzare i risultati più pertinenti presenti nell'indice di Google.
Come fa Google tra milioni di documenti a darci la risposta più pertinente?
Google arriva ad utilizzare più di 200 variabili (domande). Le principali sono:
- Quante volte la parola di ricerca è contenuta nella pagina di destinazione
- Se la parola di ricerca è contenuta nel title
- Se la parola di ricerca è contenuta nell' URL
- Se la pagina contiene contiene sinonimi delle parole di ricerca
- La pagina di atterraggio è di buona qualità o pessima qualità ( PAGERANK ) (classificazione inventata da Larry Page e Sergey Brin. Praticamente il Pagerank è valutato in base alla quantità e la qualità dei link esterni che puntano alla nostra pagina. Questo fa capire quanto la rete link è importante.)
Tutte queste variabili permettono poi di valutare ogni singola pagina web e classificarla in ordine sulla SERP da poter fornire all'utente il risultato migliore.
I risultati di ricerca ormai vengono elaborati in millesimi di secondo e ognuno è visualizzato con la struttura:
TITOLO
URL
SNIPPET DI TESTO
Questo aiuta l'utente a definire ancora meglio quale sia il risultato che più gli interessa.
Una volta capite come la ricerca di Google funziona, si può capire meglio con che strumenti e in che modo ci si può spingere per indicizzarsi al meglio nei risultati di ricerca.
Oltre al fatto che i crawler esaminano le pagine web e seguono i link presenti in esse, in modo da aumentare l'indice Google per chi fa i siti vi è la possibilità di segnalare o escludere a Google il proprio sito attraverso la sitemap ed il robots.txt.
Praticamente Google è un'enorme libreria dove vengono indicizzati non solo i libri (siti web) ma le singole pagine.
Ma fino a che punto si spinge il software e la sua "intelligenza artificiale" nell'indicizzazione?
Google sta portando la ricerca a livelli superiori che vanno oltre la singola sintassi. Ad esempio può arrivare ad associare le parole ad elementi reali. Una casa è una casa e un animale è un essere vivente. Questo lo si sta ottenendo attraverso Google Knowledge Graph.Questo processo cerca di portare i risultati da un'indicizzazione di informazione ad una indicizzazione di conoscenza.
Se si cerca: "Leonardo Da Vinci" le risposte possono essere solo di catalogazione della pertinenza delle pagine. In realtà attraverso Google Knowledge Graph si passerà a contestualizzare la ricerca capendo che è un personaggio, che fa parte di un'epoca temporale ben precisa, che è un pittore, che è vissuto in un'epoca in cui si suggeriscono altri personaggi correlati alla sua persona.
Ad oggi questo tipo di ricerca è in fase di crescita è si deve ancora tarare su impostazioni di geolocalizzazione, ma sicuramente ci dà un input su come creare i contenuti dei nostri siti per avere nel futuro la tipologia di informazione corretta che permetta di essere sempre tra i primi.
Quali sono le linee principali da seguire indicate nella guida introduttiva all'ottimizzazione per i motori di ricerca (SEO) di Google?