To cloak or not to cloak?

ciao a tutta la lista e ad Angelo, che mette in evidenza un punto al
centro di grandi discussioni tra chi si occupa -professionalmente o meno- di motori di
ricerca (e che io, nel post precedente, avevo volutamente evitato per non
trasformare un intervento già lungo in un trattato enciclopedico...).

To cloak or not to cloak?

Angelo ha ragione quando scrive

Un sito in Flash (o un sito dinamico) potrebbe ovviare al problema grazie
ad un programma di cloacking installato nel server. Questi programmi,
opportunamente settati, si 'accorgono' quando l'interrogazione viene
effettuata dallo spider di un determinato search engine e gli servono una
pagina HTML creata ad hoc per quel determinato motore di ricerca. Per cui
il problema non è insormontabile....e anche la tua bella (o meno) pagina
Flash potrà essere indicizzata.

In effetti sarebbe la quadratura del cerchio, far contenti sia i web
designer
(che delle "esigenze" degli spider francamente se ne infischiano, visto che
non è compito loro pensare a queste cose) sia i motori di ricerca,
consentendo ai primi di poter disegnare come vogliono il sito, ai secondi
di trovare ciò che cercano (contenuti testuali - prometto che è l'ultima
volta che lo ripeto:-).

Peccato che, come tutte le cose geniali, sia stato sfruttato -malamente-
per
cose che, in realtà, di geniale hanno ben poco; il cloaking è stato usato
(negli
States è un vero e proprio business) a fini di SPAM per riempire i listing
di risultati fasulli. Cito un esempio classico ma reale: la persona cerca un
sito sui cartoni animati per il proprio figlioletto, trova un risultato che
promette
ciò che cerca, vi clicca sopra... ed eccolo in un bel sito porno che per
2,95Us$ al mese ti fa accede ad un paradiso a luci rosse.

Questo è il motivo per cui la maggioranza dei motori (google ed altavista
in testa, che alla qualità ed attinenza dei risultati tengono particolarmente)
hanno cominciato a dichiarare guerra a questa tecnologia server-side.

Finora di casi di siti completamente banditi dagli indici di questi due motori se ne sono
registrati ancora pochi (su entrambi ho visto esempi di posizionamenti
ottenuti
proprio grazie a questa tecnica), ma non vorrei certo essere nei panni di
chi, proposto ad una grande (o piccola, non importa) azienda di utilizzare il
cloaking per il sito corporate al fine di migliorare il positioning senza
rispettare le regole imposte dai motori, se lo vede scomparire dai listing
il giorno in cui i motori decideranno di colpire duro:-) per l'azienda
sarebbe un danno (economico e d'immagine) notevole.

Qualcuno potrebbe obiettare: ma come fanno gli spider a capire se un sito
usa o meno il cloaking per posizionarsi?

Il sottoscritto, come buona parte dei colleghi che si occupano di search
engine marketing, riesce a visualizzare sia la pagina che viene mostrata al
visitatore "reale", sia quella mostrata ai vari spider (perdonatemi se non sto a
descrivervi come si fa:-). Ci riesco io, non volete ci riesca una
tecnologia avanzata come quella ad esempio di google?

gli basterebbe magari, andando a
campione, far visitare lo stesso sito da due spider, uno con "Googlebot"
(il nome dello spider di google)come user-agent, uno con Mozilla/4.0 sempre
come user_agent (a simulare un visitatore reale: Mozilla/4.0 indica ad esempio
un browser della generazione 5 di Microsoft IExplorer) e due indirizzi IP
differenti, confrontare i sorgenti HTML ottenuti ed il gioco è fatto. Se
finora
non lo hanno fatto è per precise ragioni, in parte legate anche al fatto
che molti siti realizzati su piattaforme di "personalizzazione" come
Broadvision o Vignette rischierebbero di finire nel libro nero dei motori.

Il cloaking, insomma, è come il fuoco: meglio fare attenzione quando ci si
vuole giocare. Oltretutto non è neanche così semplice da implementare, per
ottenere risultati di rilievo bisogna avere una mappa più aggiornata
possibile degli agent name ed indirizzi ip degli spider (ed a questo punto chi ci
guadagna veramente sono coloro che forniscono questa tecnologia e queste mappe:-)...
meglio ottimizzare il sito, si fa prima ed i risultati sono più duraturi.

Si potrebbe poi parlare di un discorso di "etica" applicata al cloaking
(conosco sistemisti che mai e poi mai installerebbero uno script per il cloaking su
un server)... ma questo è veramente un argomento troppo vasto per questa
lista, si rischierebbe di andare OT.

Per chi volesse approfondire il tema e le argomentazioni, segnalo questo
articolo pubblicato su clickZ (e dal quale ho ripreso il titolo per questo
mio intervento)

To cloak or not to cloak?
di Detlev Johnson (moderatore della newsletter I-search) e Shari Turow
http://www.clickz.com/search/c omment/article.php/826731

ed il thread sul cloaking della newsletter I-search
http://list.audettemedia.com/S CRIPTS/WA.EXE?A2=ind0006&L =i-search&am...
1&O=D&F=&S=&P=616

bye

Marco Loguercio


Marco Loguercio mailto: mloguercio@dnm.it
Search Engine Marketing & Consulting
WMC - Web Media Center
Inferentia DNM Group www.webmediacenter.it
Corso Vercelli, 40 Phone: +39 02 30.32.41
20145 Milano - Italy Fax: +39 02 30.32.4556