Siti search engine friendly (era: Meta tags e aggiornamento motori)

Un saluto a tutta la lista.

Il mio intervento non è per aggiungere altro al thread "meta tags e
aggiornamento motori", visto che bene o male i concetti di fondo sono
quelli espressi ripetutamente nelle e-mail che hanno fatto seguito alla richiesta
di Giordano (non credo sia il caso di approfondirli, visto che richiederebbe
tempo e spazio, col rischio di entrare troppo in tecnicismi).

Vorrei invece fare una
considerazione legata ai motori di ricerca ed al loro utilizzo come
"generatori di traffico".

Un paio di settimane fa, sulla newsletter I-Search segnalata anche da
Giordano, ho letto un interessante intervento sul tema "search engine friendly
design".

(questa la URL per chi volesse leggerlo
http://list.adventive.com/SCRI PTS/WA.EXE?A2=ind0106&L=i- search&D...
=D&F =&S=&P=647)

Il succo del discorso, per non dilungarmi troppo, è questo: ancora troppo
spesso
i siti web vengono disegnati tutt'altro che "search engine friendly". Se
l'obiettivo non è quello di generare traffico bensì di voler mettere in
piedi un
puro esercizio di stile, la cosa può ancora essere comprensibile.

Ma quando il
sito ha finalità commerciali, perchè porre delle barriere d'ingresso ai
navigatori?

Mi viene l'esempio di un portale nato poco prima delle ultime elezioni. Un
portale ricco di contenuti tematici interessanti, testi che farebbero la
felicità degli spider dei vari motori (ammesso che questi possano provare
sentimenti;-). Cosa è successo? In fase di progettazione non hanno tenuto
conto che, per un sito di questo genere, i motori di ricerca sono una porta
d'ingresso
fondamentale; hanno così disegnato dei templates che "annegano" questi
contenuti
in un mare di DHTML, javascript e via dicendo.

Morale della favola: i motori
spesso e volentieri lo ignorano, il sito (finita la campagna di on- e
offline advertising) non ha più gli accessi che speravano ed ora i gestori stanno
cercando di migliorare la situazione con interventi di "rattoppo". Certo, a
posteriori è facile parlare: ma non sarebbe stato il caso di pensarci
prima?

Ottimizzare un sito per i motori di ricerca già nella fase di progettazione
dello stesso significa poter sfruttare i contenuti stessi del sito per
poter generare traffico, coprendo parole chiave importanti che magari,
ricorrendo in
seconda battuta ad un servizio di posizionamento nei motori di ricerca, si
rischierebbe di ignorare.

In secondo luogo consente di poter ottenere risparmi significativi nelle
campagne di advertising e visibilità.

In terzo luogo (e qui casomai mi correggano gli esperti di usability:-) un
sito "a prova di spider" può anche essere un sito "a prova di utente", vale a
dire che il visitatore troverà facilmente i contenuti seguendo link testuali
visibili e ben organizzati (e non da ricercare magari in imagemaps o in menù a
scomparsa).

Di cose da dire ce ne sarebbero ancora molte; mi piacerebbe sapere come la
pensano anche altri listaroli che hanno avuto esperienze in merito.

Ciao

Marco Loguercio