Gli expanded results di Bing

In questi giorni si è fatto un gran parlare di Bing, specie perché il 24 agosto scorso il motore ha finalmente ultimato la “fusione” dei suoi algoritmi con Yahoo!, iniziando ad usare la sua struttura e i due database per servire entrambe le “popolazioni” di utenti che recenti stime danno intorno al 20% (almeno nel mercato EMEA).

Non si tratta certo di gran numeri, e la partnership tra i due motori verte proprio a trovare un nuovo punto di slancio per cercare di ribaltare la situazione. Cosa questa non certo facile.

Di esempi in rete dove la fidelizzazione degli utenti é dura a morire ne abbiamo tanti, uno per tutti Firefox vs Internet Explorer.

E proprio in questa minoranza trovo la risposta a questa nuova funzionalità di Bing, di cui sembra pochi ne siano a conoscenza. Anzi, a dire il vero direi nessuno, visto che tra tutti i blog del mio RSS reader, nessuno ne ha fatto menzione.

Sto parlando dei risultati espansi di Bing.
Continue reading Gli expanded results di Bing

Posizionamento siti e motori di ricerca: scienza o illusionismo?

Posizionamento siti: scienza o magia?

Oggi riallaccio il filo con un articoletto congiunto di qualche mese fa dedicato al fumo senza arrosto che certi fornitori di servizi spesso offrono: l’occasione me la offre Marco di IMaya, società del siciliano che si occupa di posizionamento nei motori, con loro guest post.

Continue reading Posizionamento siti e motori di ricerca: scienza o illusionismo?

Ricerche personalizzate per tutti

Il 4 dicembre scorso Google ha sfornato le “Ricerche personalizzate per tutti”, ovvero una feature che mostrer SERP uniche per ogni singolo utente a seconda delle sue “preferenze di navigazione” ovvero dei suoi gusti.

Di questa nuova funzione, in meno di 4gg, si parlato in lungo e in largo, e forse questo mio post potr sembrare l’ennesimo clone.
Invece no, intendo esprimere il mio pi totale disappunto sulla nuova funzionalit, che – a mio avviso – rischia di far perdere serie quote di mercato al Big Motore.

A detta di Google, le ricerche personalizzate sembrano un grande passo avanti nella ricerca su Internet, volto ad aiutare le persone a ottenere migliori risultati di ricerca.
Ritengo questa funzionalità una cosa inutile. Un giudizio che d spassionatamente dopo 4gg di test esteso e senza che la mia visione SEO abbia minimamente influenzato la cosa. Perch?

Il principio di Google sempre stato dalle sue origini di offrire i risultati migliori, e questo concetto sempre stato basato sul suo potente algoritmo che – passando al vaglio i vari siti attraverso i 200 e pi elementi costituenti lo stesso – era in grado di restituire (quasi) sempre i risultati migliori.

Ora con l’impronta personale che ogni utente potr dare ai risultati, influenzata sostanzialmente dal numero di visite fatte (dallo storico delle ricerche) e memorizzate in un cookie, questo principio rischia di venire meno, perch l’utente medio non si render conto di queste differenze e continuer a pensare che le sue ricerche e i primi siti che trova sotto al naso siano effettivamente quelli veramente pi importanti.

Analogo discorso vale per il secondo fattore, la Localit, il quale si prefigge di restituire risultati pertinenti in funzione della locazione geografica (derivata dall’IP) del computer dal quale ci si sta collegando.

Altro grosso errore che rischia di rendere le ricerche inutile, specie se si considerano grossolani errori come quelli che ho visto in passato ad esempio quando cercavo un ristorante a Londra Southbank e Google mi ha restituito si ristoranti a Southbank, ma in Australia ad oltre 10 mila km di distanza.

Da un prospetto SEO, ovviamente, questa nuova funzione ha le medesime lacune che vedranno i clienti lamentarsi quando il loro sito non sar pi posizionato in prima pagina, magari perch nei giorni prima si sono fatti un giro sui siti dei competitors.

Bisogner iniziare quindi una nuova fase di evangelizzazione, spiegando a tutti cosa succede e perch, ma soprattutto come …

Disattivare le ricerche personalizzate di Google

Esistono fondalmentalmente due modi per disattivare le ricerche personalizzate.

Se siete loggati nell’account Google, e se siete dei geek potete aggiungere un parametro in coda alle query (&pws=0) che non far altro che disattivare la personalizzazione per la specifica richiesta. L’alternativa suggerita da Google quella di cancellare la cronologia delle ricerche, ma questa verr nuovamente popolata mano a mano che si utilizza Google e il proprio account.

googlewebhistory.jpg

Se non siete loggati nell’account Google. Cliccando in alto a destra sul link Web History potete disattivare per sempre la personalizzazione procedendo con il cosidetto opt-out, che a quel punto canceller il cookie nel sistema e mostrer i risultati come un tempo (Vedi immagine sopra).

La terza opzione quella di utilizzare un servizio come Depersonalizer che non ha tardato ad arrivare sul mercato per salvarci dall’ira del tiranno di Mountain View, il quale ultimamente sta proponendo scelte un p troppo senza senso.

Google raises new suggestion about rankings?

Google Engineer Matt Cutts in an interview has recently told how Google is going to rank web sites in the future, in particular he has hinted that ranking would somehow be affected by the loading time taken by a website.
So SEO won’t be the only “trick” on which a web site can rely; magic will be now diverted to different factors such as the real capacity of a webmaster (or web agency) to make a smart web site (in terms of code efficiency) as well as about a good hosting company with enough bandwidth and server ram (just to cite a couple of important factors).

Cutts revealed the existence of a new plug-in for Firefox, called Page Speed test, that will be integrated into the well known Firebug, which will add a new tab that aims to measure the page speed across a list of different factors.
As most of SEO and Webmaster out there, I performed some test as well, and I’ve been surprised to see in the issue list an item regarding the caching.

As you probably already know, most web pages include resources that change infrequently, such as CSS files, image files, JavaScript files, PDF, and so on. These resources take time to download over the network, which increases the time it takes to load a web page.

HTTP caching allows these resources to be saved (cached) somewhere by a browser (locally according to its settings) or a proxy, making the download faster. Once a resource is cached, a browser can refer to the first available local copy instead of download it again during the next session.
Using cache means with the lottery reducing round-trip time by eliminating numerous HTTP requests for the required resources, which substantially reduce the total payload size of the responses, and significantly reduce the bandwidth and hosting costs for your site.

So it seems caching is one aspect on which every web player should take care. Some problems occur if we think to the tons of web site that still doesn’t use server-side technology, which allow to control practically everything and set up the response header in a very easy way, or people whose don’t have direct access to the server configuration to set up the header in just a couple of clicks (that is not the META tag in the HTML Page like a friend of mine reported me today, despite it’s sometimes involved).

HTML Meta Tags and HTTP Headers

Just because I mentioned  them, it’s better clarifying my previous statement. It’s true that HTML authors can put Expire tag in the document’s head section, but for caching  purposes this meta tag is useless.

That’s because it’s only honored by a few browser caches (which actually read the HTML) and not by proxies (which almost never read the HTML in the document).

And if you are considering to use the Pragma, it won’t necessarily cause the page to be kept fresh.

On the other hand, true HTTP headers give you a lot of control over how both browser caches and proxies handle your web page. They can’t be seen in the HTML, and are usually automatically generated by the Web server.

200911191806.jpg

The solution is…

I though to many different solutions to the problem, but none of them was directly applicable to a static web page, and it’s embedded resources like CSS and Javascript.

The only good thing I was able to find actually is a solution for external downloadable files like PDF, PPT or document in general, that may be eventually requested with a simple Javascript code that use an XMLHttpRequest whilst contextually modify the Response header. Unfortunately, this solution is valid only for internal links, because any external resource that points directly to the file will automatically use the header that has been set up by default on the server.

So, if this caching will really become an issue to pursue, it will be beneficial for all of you choose an hosting company or develop your web page using a server side technology that will allow you to change the headers in a very easy way.

UPDATE: After some days of frustration, I’ve gone through a real obsession for web server speed and I started to figure out how to solve the server caching issue above mentioned which you can find in my italian article.

Before to conclude, I just report another interesting paper released by Yahoo! on how to speed-up web pages.

Technorati Tags: http, header, caching, google