I nemici della visibilità dei siti web

Lo scopo principale di un buon sito è quello di raggiungere il maggior numero possibile di utenti interessati a quanto proposto; quest’obiettivo può essere centrato in vari modi a seconda dei contenuti e del bacino di utenza potenzialmente interessato al sito.

Impariamo ad individuare alcune fra le principali cause della scarsa visibilità del sito Internet.

La stragrande maggioranza degli accessi ai siti internet è data dai motori di ricerca ed in particolare in quelli di grande interesse generale.
Accade però di non raggiungere i risultati che ci si era proposti in fase di progettazione e – pur credendo di aver realizzato un ottimo mezzo promozionale, ci si accorge che il sito non è raggiunto dai visitatori che ci si aspettava e che nel tempo non ha portato ai risultati sperati o promessi da chi lo ha realizzato.

Quali sono i nemici della visibilità? In linea di massima la risposta potrebbe essere che il solo nemico sia l’errata pianificazione del sito in fase di ideazione e sviluppo, in tale risposta, però, sono riassunti tanti possibili “buchi” che in maniera più o meno marcata incidono negativamente sull’indicizzazione e, di conseguenza, sulla visibilità del sito. Fra gli errori più diffusi possiamo elencare:

– programmazione non aggiornata e non rispondente alle attuali norme
– carenza di contenuti di testo
– assenza dei principali metatags dedicati ai motori di ricerca
– siti realizzati con tecnica “frameset”
– siti realizzati esclusivamente con pagine animate o tecnica vettoriale
– indicizzazione “selvaggia” e reindirizzamenti

– Programmazione non aggiornata e non rispondente alle attuali norme
L’uso di programmazione non aggiornata può comportare un grave danno i termini di visibilità; il codice che i motori di ricerca accettavano pochi anni fa, è adesso letto con difficoltà dai loro crawlers, Google e gli altri motori di ricerca tendono quindi ad ignorare gran parte dei contenuti portando il sito in posizioni di visibilità sempre più basse.
Per rendersi conto di questi errori si potrà visualizzare il contenuto HTML della pagina (con Internet Explorer basta cliccare su Visualizza / HTML); la presenza di tags come ,,
sarà un primo segno di programmazione obsoleta. Si potrà poi “validare” il contenuto della pagina utilizzando il validatore fornito dal W3C; un risultato “Invalid” ci darà la reale portata degli errori commessi in fase di programmazione, una pagina dichiarata “Valid” sarà invece rispondente alle specifiche W3C e di conseguenza meglio accessibile ai visitatori ed ai motori di ricerca.

– Carenza di contenuti di testo e dei principali metatags dedicati ai motori di ricerca
Il principale mezzo di reperibilità di un sito è il suo contenuto testuale. I motori di ricerca non leggono immagini e colori ma solo il testo, se incontrano contenuti “corposi” e sviluppati in modo razionale, li indicizzeranno rendendoli fruibili ai navigatori, in caso contrario il sito sarà pressochè ignorato. Essenziale è la presenza di testi adeguati nella home page, in quanto è da lì che il crawler inizia a sondare il sito.
Una home page introduttiva priva di riferimenti di testo e link di buon valore sarà solo un’occasione persa per la buona indicizzazione del sito.
Anche in questo caso il controllo del codice HTML sarà un supporto essenziale
per renderci conto della reale situazione.

– Siti realizzati con tecnica “frameset” I frames (ed iframe)
Hanno avuto grande diffusione nei primi anni di diffusione massiccia di Internet; in pratica la tecnica “frameset” era tesa a suddividere la pagina in più settori in ognuno dei quali veniva letteralmente inserita una pagina a sè stante.
I motori di ricerca hanno sempre avuto difficoltà nell’indicizzare questo tipo di struttura in quanto di solito il contenuto della home page è limitato al solo scopo di dividerla in frames ignorando tutti i contenuti di testo delle pagine incluse.

I commenti sono chiusi