Ci siamo trasferiti!

Verrai reindirizzato a breve sul nuovo sito, se non vieni trasferito clicca qui:
http://www.seoromeo.it/

venerdì 30 aprile 2010

Tecniche per fare linkbuilding



Oggi riguardiamo da vicino uno dei tempi più importanti del mondo SEO, il linkbuilding. Tanto per iniziare fare Linkbuilding non è semplice, è un lavoro che dev’essere prima di tutto pianificato, dev’essere costante nel tempo, bisogna essere molto pazienti perchè i risultati non sono immediati, ma bisogna aspettare per notare dei cambiamenti sulla serp.

Esistono come detto diversi modi per fare linkbuilding che potremmo cosi schematicamente riassumere:

outbound link
inbound link
scambio link
3-way links

Per approfondire l'argomento vi consiglio questo articolo su come fare linkbuilding

Condividi su Facebook

giovedì 29 aprile 2010

Ottimizzazione motori di ricerca


Eccomi tornato dopo una pausa causa trasloco su Milano, non avendo molto tempo a disposizione causa pacchi da sistemare nella nuova casa vi riporto un bel pezzo di Wikipedia.

Con il termine ottimizzazione (Search Engine Optimization in inglese) si intendono tutte quelle attività finalizzate ad aumentare il volume di traffico che un sito web riceve dai motori di ricerca. Tali attività comprendono l'ottimizzazione sia del codice sorgente della pagina, sia dei contenuti.
L'ottimizzazione è parte di un'attività più complessa, quale il marketing dei motori di ricerca (Search Engine Marketing, SEM).

L'attività di ottimizzazione per i motori di ricerca comprende varie operazioni tecniche che vengono effettuate sul codice HTML (incluso il markup) e sui contenuti delle pagine del sito web, nonché sulla struttura ipertestuale complessiva (tecnologie di interazione comprese).

La figura professionale specializzata in ottimizzazione è il SEO (search engine optimizer, ottimizzatore per i motori di ricerca). In siti di dimensioni elevate, o particolarmente complessi, il SEO resta in stretto contatto con il team di lavoro, necessitando a seconda degli elementi trattati di specifiche professionalità che difficilmente possono ricadere in una singola persona.
L'ottimizzazione di un sito è funzionale al suo posizionamento nelle pagine di risposta dei motori, che a sua volta è funzionale alla visibilità dei prodotti/servizi venduti.


Condividi su Facebook

giovedì 22 aprile 2010

Link popularity



Quando si cerca di ottimizzare un sito una delle prime cose che si cerca di fare è quella di ottenere link in entrata. Una delle regole principali è quella di ottenere link di qualità ed evitare il meno possibile di concedere link in uscita. In poche parole se un sito riesce ad ottenere tanti inbound link riducendo al minimo i link in entrata riuscirà a preservare il valore ricevuto.

Il posizionamento di siti web sulle serp di Google su determinate query di ricerca influisce direttamente sulla link popularity. Se un certo numero di utenti dirige un link verso un determinato sito usando lo stesso ancoraggio Google lo riterrà di maggior prestiggio rispetto ad altri.

La link popularity insieme ad un alto Pagerank sono tra le cose che gli esperti seo ricercano con molta attenzione, perchè possedere questi due valori significa il più delle volte avere un sito piazzato meglio di altri.

Condividi su Facebook

mercoledì 21 aprile 2010

Quali pubblicità ci colpiscono di più sul web?



Navigando, quali sono gli annunci pubblicitari che tendiamo a guardare maggiormente: immagini? Animazioni? O annunci testuali? La risposta è: i testi.

Una recente ricerca sulla retina oculare dimostra che gli annunci testuali sono i più osservati in assoluto, seguono le pubblicità con immagini e molto più indietro quelle animate.

Al contrario di quello che si pensa, non sono quindi le animazioni o le immagini a colpire maggiormente il nostro occhio, nonostante tutta la buona volontà nella scelta dell'immagine o nella realizzazione dell'animazione: è il testo delle pubblicità ad essere "sbirciato" maggiormente (pensiamo ad esempio agli annunci Google).

Quali sono i motivi principali per cui le pubblicità testuali ci colpiscono di più?
Continua a leggere...



Condividi su Facebook

martedì 20 aprile 2010

Strategie e pianificazione



Quando iniziate il percorso di ottimizzazione di un sito è doveroso implementare una strategia globale suddivisa in diversi elementi. 

Di solito si viene interpellati per pagine già esistenti che non riescono ad ottenere quella visibilità che i proprietari desiderano. La prima cosa che vi consiglio di fare è prendere una bella lente di ingrandimento e analizzare il sito in tutte le sue parti.

Di strumenti per analizzare un sito web ne esistono migliaia, ma non perdete tempo inutile concentratevi intanto su fattori facilmente trovabili come l'età del sito e come viene visto il sito dai motori di ricerca.

Per rispondere a queste domande ci sono diversi strumenti che possono aiutarvi. Va precisato per età del sito intendo età del dominio. In poche parole se ad un dominio è stata associata una pagina html è probabile già che gli spider gli abbiano fatto una visita, soprattutto per query dove la competizione non è altissima. Per misurare l'età di un dominio vi consiglio www.internic.it.

Ogni sito come detto assume un valore diverso al cospetto dei motori di ricerca, valore indicato da Google con il Pagerank, in pratica una sorta di voto che Google ama dare ad ogni pagina web (votazione destinata a scomparire). Vi consiglio questo portale www.urlmetrix.com.




Condividi su Facebook

venerdì 16 aprile 2010

Malware e la sua rimozione



Si definisce malware un qualsiasi software creato con il solo scopo di causare danni più o meno gravi al computer su cui viene eseguito. Il termine deriva dalla contrazione delle parole inglesi malicious e software e ha dunque il significato letterale di "programma malvagio"; in italiano è detto anche codice maligno.
La diffusione di tali software risulta in continuo aumento. Si calcola che nel solo anno 2008 su Internet siano girati circa 15 milioni di malware, di cui quelli circolati tra i mesi di gennaio e agosto sono pari alla somma dei 17 anni precedenti, e tali numeri sono destinati verosimilmente ad aumentare (wikipedia).

Gli strumenti per webmaster vi offrono la possibilità di capire se il vostro sito è sotto attacco di malware. è fondamentalmente uno strumento gratuito che aiuta a rimuovere specifici software dannosi dai computer che eseguono sistemi operativi Windows, tra cui tutte le versioni di Windows Vista. Questo strumento viene aggiornato il secondo Martedì di ogni mese ed è distribuito tramite Windows Update. Una volta installato, viene silenziosamente eseguito in background per rimuovere i software dannosi che trova.

Quando il processo di individuazione e rimozione viene completato, lo strumento genera una relazione contenente i risultati della scansione. La relazione può essere trovato in un file di registro denominato ‘mrt.log’ che viene messo nella cartella ‘C: Windows Debug’.

Anche se questo strumento ti aiuta a rimuovere software dannosi, non dovrebbe mai essere usato come una sostituzione per un programma antivirus. Ecco perché questo è adatto solo per ricerche di specifiche minacce. Inoltre, è aggiornato su base mensile, a differenza di soluzioni antivirus che invece vengono aggiornati quotidianamente.

  
Dove e come trovarlo?


Per impostazione predefinita, lo strumento può essere trovato in ‘C: Windows System32′. Una volta aperto questo percorso, dovrete cercare un file chiamato Mrt.exe.


Condividi su Facebook

mercoledì 14 aprile 2010

Indicizzazione e crawling


Oggi trattiamo un argomento molto interessante ovvero la differenza tra indicizzazione e crawling. Per indicizzazione si intende l'inserimento di un sito web nel database di un motore di ricerca, mediante l'uso di apposite parole-chiave. 

L'indicizzazione di un sito internet, in altre parole, è il momento in cui il sito viene riconosciuto dai motori di ricerca e quindi compare nelle loro pagine di risposta alle interrogazioni degli utenti web.
Diversa cosa è il posizionamento, che è invece un'azione volta a determinare che un sito compaia in una specifica posizione nelle pagine di risposta dei motori (cioè nelle prime posizioni).

Il crawling è invece la ricerca ed analisi dei contenuti delle pagine web che andranno ad essere inserite nell'indice generale di Google o di altri motori di ricerca. Se si guarda ai propri files di log ci si accorge che esistono diverse stringe relative allo spider di Google.


Un crawler (detto anche spider o robot), è un software che analizza i contenuti di una rete (o di un database) in un modo metodico e automatizzato, in genere per conto di un motore di ricerca.
Un crawler è un tipo di bot (programma o script che automatizza delle operazioni). I crawler solitamente acquisiscono una copia testuale di tutti i documenti visitati e le inseriscono in un indice.

Riassumendo:


-    Crawling, in cui uno Spider  si occupa della “scansione” del web alla ricerca di siti web e contenuti.
-    Indexing o indicizzazione, in cui un indexer legge le informazioni depositate e le analizza. Ogni parola verrà analizzata nella sua forma, dimensione, carattere, posizione all’interno della pagina, frequenza, al fine di creare una sorta di indice ordinato. Anche i link che puntano al documento vengono analizzati (inbound links).

Fonte Wikipedia


Condividi su Facebook

martedì 13 aprile 2010

File robots txt



Il modo più conosciuto per ridurre l'attività di scansione degli spider è sicuramente l'utilizzo dei tag robots. Ma trattandosi di uno strumento dedicato ad ogni singola pagina può risultare scomodo.

Per questo è per altri motivi esiste il Robots Exclusion Standard, un sistema che permette di avere un controllo maggiore sugli spider.

Lo standard per l'esclusione degli spider è più semplice di quanto possa sembrare. Basta servirsi di un semplice file di testo e di text editor. Il file in questione va chiamato "robots.txt" e contiene, in un particolare formato, delle istruzioni che possono impedire a tutti o alcuni spider il prelievo di alcune o tutte le pagine del sito.

Vi riporto un pezzo di uno dei maggiori SEO Italiani, Enrico Altavilla:

Una volta creato il file robots.txt, esso va pubblicato on-line nella directory principale del sito web. Ad esempio, se il sito ha indirizzo http://www.nome_del_sito.com , il file dovrà essere accessibile all'indirizzo http://www.nome_del_sito.com/robots.txt .

Tutti gli spider di quei motori di ricerca che hanno deciso di aderire a questo standard e di seguire le indicazioni del file robots.txt (ovvero la maggior parte dei motori, sebbene non tutti), ogni volta che accederanno al sito web, per prima cosa andranno a cercare nella directory principale il suddetto file e, se lo troveranno, seguiranno le direttive contenute al suo interno.

Contenuti di robots.txt

Innanzitutto è indispensabile aver chiaro quanto segue: il file robots.txt contiene una lista di pagine e directory che gli spider NON possono prelevare.

Ciò significa che non esiste una istruzione per dire allo spider: "puoi prelevare questa pagina" ma esistono solo istruzioni per dirgli: "NON puoi prelevare questa pagina". Non a caso lo standard si chiama Standard per l'esclusione dei robot.

Quanto appena specificato è estremamente importante, in quanto molti degli errori che i webmaster spesso inseriscono nei file robots.txt hanno origine dall'errata comprensione di ciò che è possibile fare con essi.

Se non avete la necessità di impedire ai motodi ricerca di prelevare alcune (o tutte) pagine del vostro sito, allora il file robots.txt non vi serve.

Formato di robots.txt

Il file robots.txt contiene dei record, ognuno dei quali comprende due campi: il campo "User-agent" ed uno o più campi "Disallow".

Il campo User-agent serve ad indicare a quale robot/spider le direttive successive sono rivolte. La sua sintassi è:
User-agent

Il campo Disallow serve a indicare a quali file e/o directory non può accedere lo spider indicato nel campo User-agent. La sintassi di questo campo è:
Disallow

Esempio di un record:

User-agent: googlebot
Disallow: /testi.html
Disallow: /mp3/
Il suddetto record dice a Google ("googlebot" è il nome dello spider di Google) che non gli è permesso prelevare il file testi.html nè accedere alla directory mp3 e ai suoi contenuti, sottodirectory comprese. Notate come il nome del file è preceduto da un carattere "/" (che indica la directory principale del sito) e come il nome della directory fa uso di un carattere "/" anche in coda.

Il campo User-agent può contenere un asterisco "*", sinonimo di "qualunque spider". Per cui l'esempio seguente dice a tutti gli spider di non prelevare il file temporaneo.html:

User-agent: *
Disallow: /temporaneo.html
Il campo Disallow può contenere un carattere "/" ad indicare "qualunque file e directory". L'esempio che segue impedisce a scooter (lo spider di Altavista) di prelevare qualunque cosa:

User-agent: scooter
Disallow: /
Infine, il campo Disallow può essere lasciato vuoto, ad indicare che non ci sono file o directory di cui si vuole impedire il prelievo. L'esempio seguente mostra come dire a tutti i motori di ricerca di prelevare tutti i file del sito:

User-agent: *
Disallow:
Esempio di un file robots.txt

Come scritto pocanzi, il file robots.txt si compone di uno o più record, ognuno dei quali prende in esame spider differenti. Ecco dunque un esempio completo di file robots.txt, che blocca del tutto Altavista, impedisce a Google l'accesso ad alcuni file e directory e lascia libero accesso a tutti gli altri motori di ricerca.

User-agent: scooter
Disallow: /

User-agent: googlebot
Disallow: /intestazione.html
Disallow: /links.html
Disallow: /temporanei/
Disallow: /cgi-bin/

User-agent: *
Disallow:

Maggiori info:


Condividi su Facebook

venerdì 9 aprile 2010

numeri di Twitter




Dopo aver tessuto le lodi di Facebook è arrivato il momento di fornirvi anche qualche dato su Twitter. Premetto che in Italia ancora molti fanno fatica a prendere confidenza con Twitter visto che stiamo parlando di un servizio di micro-blogging che permette agli utenti di comunicare attraverso messaggi istantanei di 140 caratteri al massimo.

Twitter a differenza di Facebook è uno strumento di marketing e comunicazione da parte di aziende e mass media, sfruttato per aumentare le interazioni con gli utenti e la visibilità dei brand.

Quanti Italiani dunque utilizzano Twitter?

Visto che non sono ancora disponibili dati ufficiali, per rispondere a queste domande vi propongo un schema che ho trovato sul sito Pandemia.info:



Condividi su Facebook

giovedì 8 aprile 2010

Tutti i numeri di facebook



Dopo aver parlato a lungo di Facebook mi sembra giusto regalarvi un po' di numeri che ci aiuteranno a capire se in Italia questo social network è una moda passeggera o un fenomeno destinato a protrarsi nel tempo.

Al momento nel bel paese il giocattolo di Zuckerberg ricopre la quinta posizione tra i paesi con più membri iscritti e le sue cifre parlano chiaro anche nei dati di Alexa, dove la piattaforma raggiunge la seconda posizione, superando addirittura Windows Live.

E'molto recente la notizia che Facebook ha superato Google in Italia (fino ad un anno fa soltanto impossibile pensarlo). Youtube è posizionato al quarto posto, mentre Netlog, l’unico rivale “sociale” di Facebook in Italia, allo stato attuale, è posizionato al dodicesimo posto. Delle piattaforme di blogging, quella che rimane nella top 20 è Blogger (servizio di Google).

Elenco un riassunto dei numeri:

 oltre 400 milioni il numero di utenti nel mondo

- più di 12 milioni gli utenti italiani registrati

- 6 mesi il tempo medio in cui si raddoppiano gli utenti attivi:

- 55.000 i network regionali, di lavoro, universitari e scolastici

- 20 minuti il tempo medio di permanenza

- 14 milioni il numero di foto caricate ogni giorno

- 80% gli utenti che hanno utilizzato almeno un’applicazione facebook

Condividi su Facebook

mercoledì 7 aprile 2010

Google vs Facebook



Oggi vi propongo un interessante articolo del giornalista Davide Di Santo pubblicato su "il Tempo" il 2 febbraio del 2010. L'articolo narra come la guerra tra Facebook e Google stia diventando sempre più accanita. 

Google contro tutti

Il motore di ricerca più popolare di internet si sta espandendo a macchia d'olio in tutti i settori del web e va alla conquista dei mercati più appetibili della comunicazione digitale. Incontrando competitor sempre più forti e agguerriti. Dopo il guanto di sfida lanciato dal tycoon dell'informazione globale Rupert Murdoch, che accusa la company di Mountain View di "rubare" le notizie di News Corp. attraverso il motore Google News, e l'assalto all'iPhone con il lancio dello smartphone multitouch Nexus One, il motore di ricerca si misura con i più  celebri social network: Facebook e Twitter.


La "posta" è alta - La sfida però non avverrà con il lancio di una nuova community, ma con l'uso coordinato di applicazioni già disponibili. Google, secondo quanto riporta il Wall Street Journal, si appresta infatti a implementare il servizio di posta elettronica Gmail con alcune funzioni tipiche di un sito di social networking. Gli utenti, dunque, potranno aggiornare il proprio status e condividere informazioni come fotografie, video e notizie. Pan per focaccia, visto che Facebook ha da poco rinnovato la casella per l'invio di messaggi rendendola simile a quella della grande G. Parlando di numeri, sul piatto ci sono quasi 600 milioni di utenti complessivi. È certo che la posta "socialmente modificata" di Mountain view punterà a integrare i circa 176 milioni di utenti con una una fetta dei 400 milioni di utilizzatori di Facebook, anche alla luce dell'esperienza di Orkut, uno dei social network più popolari del Brasile e ideato dalla company di Brin e Page.

Contraffazione sul web - Ma nelle tante partite dell'informazione globale Brin e Page non vanno solo all'attacco. Anche a loro capita di giocare in difesa. I loro legali hanno infatti chiesto la chiusura di un motore di ricerca cinese che opera con il logo della compagnia americana. Lo riporta il quotidiano Shenzen Economic Daily. Goojje, così si chiama il sito, è stato realizzato poco più di un mese fa da un gruppo di studenti universitari dopo l'annuncio che Google potrebbe lasciare la Cina perchè non vuole più sottomettersi alla censura del governo di Pechino. Il portale era nato con l'intento di convincere il sito Usa a rimanere e si presenta come una "piattaforma di libertà", come è scritto nella presentazione del portale.


Condividi su Facebook

domenica 4 aprile 2010

Come ottenere link in entrata



Per prima cosa deisdero fare una piccola introduzione per chi si sta avvicinando adesso al SEO o comunque sta studiando e non si ritiene un esperto!


Se sei un Esperto invece puoi saltare direttamente alla sezione "Il Metodo" in cui descrivo la tecnica, qui spenderò alcune parole per spiegare l'importanza della pertinenza dei backlinks.

Ottenere molti link da altri siti è tuttora il fattore dominante che stabilisce s un sito è prima di un'altro o no nelle ricerce mostrate dai motori di ricerca. Ma oltre alla quantità di link ricevuti, è importante anche ricevere backlinks di qualità, in questo modo, si possono ottenere veramente buoni risultati in termine di posizionamento. Un esempio di qualità è semplice: se avete un sito che si occupa di vndita di scarpe da ginnastica, e ricevete link da siti di turismo la qualità dei link è bassa, scadente! Se invece li ricevete da siti che parlano di sport, di ginnastica e ancora meglio di scarpe da ginnastica allora la qualità dei vostri link e quindi anche il peso che viene passato al vostro sito è maggiore.

Spero vi sia servito a chiarire un minimo la situazione!


adesso vi illustretò Il Metodo con cui poter costruiire dei backlinks di qualità


Questa tecnica è considerata Black Hat Seo perchè fa utilizzo del grab di informazioni da altri siti web, e di tecniche di autoblog, per cui se pensi che questo tipo di tecniche non siano efficaci o le ritieni non "etiche" allora ti prego di non leggere oltre, potresti allontanarti da questo log e non tornare più, mentre altri articoli di questo blog parlano molto e bene di tecniche White Hat e sono sicuramente più di tuo gradimento!


Il Metodo:

Per prima cosa si deve realizzare uno o più auto blog, con argomenti a tema con i tuoi, se per esempio ti occupi di vendita di scarpe da ginnastica allora crea dei blo che parlano di questo... trovando argomenti affini come lo sport l'atletica ecc...

Per creare un AutoBlog in modo semplice, veloce e sicuro al 100% ti coniglio di consultare la guida: Auto-Blog con Wordpress, una volta creato l'autoblog tutto quello che dovrai fare è
- inserire uno o più link al tuo sito con l'anchor text che preferisci
- promuovere un minimo il blog con twitter e facebook.

Per l'anchor text è semplice, se per esempio vuoi comparire per la parola "Tecniche di posizionamento" metti il link al tuo sito sulla frase "Tecniche di posizionamento" ed inseriscilo nella sidebar del blog in modo che sia visibile in tutte le pagine.

Poi crea un account twitter apposta per il tuo auto blog, un acount facebook ed anche un acount con Su.pr un servizio di Stumbleupon con cui una volta registrato puoi inviare gli articoli del tuo blog in automatico sull'account Facebook e quello Twitter. in questo modo ottieni in maniera del tutto automatica un blog che non solo si autoaggiorna a solo ma che si promuove anche da solo acquisendo efficacia e pertinenza più il tempo passa.

Ci sono alcune operazioni agiuntive che ti consiglio di effettuare ed inoltre alcune operazioni di manutenzione.

Per la manutenzione dovrai controllare ogni tanto i feed inseriti nel tuo sistema di autoblog, una volta l mese è sufficente!

Per le operazioni aggiuntive invece quello che ti consiglio è: 


- di curare per un po (un mese almeno) i tuoi amici su twitter e facebook in modo da raggiungere almeno un centinaio di amici, con facebook esistono dei metodi per automatizzare l'accettazione delle richieste di amicizia e la gestion dei messaggi, ma di questo ne parlerò in un'altro post, anche con twitter esistono dei sistem per rendere più veloce la crescita di followers ma sinceramente non è di uesto che tratta questo post!

- di registrare il blog su alcune directory di blog in modo da rendere il blog ancora più "vero"

tra le directory di blog ti segnalo:



Non serve che registri i tuoi blog sempre su tutte, ma tre possono bastare inoltre utilizza sempre irectory diverse per ogni blog che crei, e se ti è posibiel anche account email diversi per ogni blogs per evitare che i motori creino dei collegamenti tra i tuoi blogs.

Inoltre ti consiglio di:
- scrivere ogni tanto un post vero nel blog, magari con un articolo interessante e perchè no con uno o due link al tuo sito, ma anche ad altri!!!
- di inserir link anche ad altri siti, sopratutto a siti di rierimento nella tua nicchia ed anche a wikipedia se c'è qualcosa di interessante
- di creare un po i rumore attorno al tuo blog, anando su blog affini e commentando inserendo il link del tuo blog.

Articolo scritto da: Tecniche di Posizionamento White, Grey e Black Hat - The Seo Mad hat!


Condividi su Facebook

venerdì 2 aprile 2010

Alleggerire le pagine Web



Di fronte a pagine sempre più ricche di widgets, librerie javascript, grafica, interazioni con database, riuscire a risparmiare anche pochi KB o trovare modi alternativi per ridurre i tempi di caricamento diventa cruciale.

Come sapete uno dei fattori importanti per migliorare il posizionamento di un sito web sui risultati di ricerca è appunto quello di alleggerire più possibile il codice della pagina.

Per alleggerire ulteriormente il codice di una pagina web dovete rimuovere l’indentazione del codice che di default tutti gli editor html fanno.

Ridurre il peso delle immagini

Avendo già "spremuto" le immagini grazie all'opzione "Salva per il web" di Adobe Photoshop, pensavo non ci fosse molto altro da fare, almeno finchè non ho scoperto Smush.it: un fantastico tool online capace (non sempre, ma spesso) di andare oltre, riducendo ulteriormente il peso delle immagini senza sacrificarne in alcun modo la qualità.
Grazie all'uso di questo tool ho "guadagnato" 11,7 KB, senza alcuna perdita in termini di resa grafica.


Compressione dei file javascript

Se utilizzate librerie esterne (es: jquery) assicuratevi di includere nelle vostre pagine sempre la versione compressa delle stesse (in genere nel nome del file trovate il suffisso "min"), tipicamente disponibile.
Nel caso non lo fosse, oppure per comprimere i vostri script .js, potete utilizzare diverse applicazioni online, ad esempio javascriptcompressor.
Nel caso concreto in esame, comprimendo due .js di mia creazione ho guadagnato altri 1,5KB (certo, pochino, ma la dimensione stessa dei file originali era molto piccola).


Compressione CSS

Oddio, posso comprimere anche i miei CSS?
Certo: tutti quegli spazi bianchi, tutte quelle andate a capo, tutti quei commenti - indispensabili per una facile leggibilità dei file - OCCUPANO SPAZIO.
Il consiglio è quello di mantenere due versioni dei vostri CSS: la versione "estesa", comodamente consultabile ed editabile, e la versione "ristretta", da pubblicare online.
Anche per questo scopo sono disponibili applicazioni online, ad es. csscompressor, oppure - come generalmente preferisco - FATELO VOI: avrete un'occasione per esaminare da cima a fondo i vostri file, eliminando eventuali errori o duplicati presenti.
Sito web in esame: risparmio di 2,6KB.


Ridurre il numero delle richieste HTTP

Ogni oggetto presente all'interno della pagina - immagini, script, CSS, filmati Flash, .. - genera una specifica ed autonoma richiesta al server web: aumentando il numero di tali richieste, la loro incidenza sul tempo totale richiesto per il caricamento della pagina diventa determinante.
Il fattore di rallentamento in questo caso non è dato dalla dimensione in KB degli oggetti, ma dal NUMERO delle singole richieste inviate al server: a parità di KB trasmessi, minore il loro "spezzettamento" in singole richieste, minore il tempo di caricamento complessivo.
Nel caso in esame ho quindi proceduto all'accorpamento di due file CSS in uno, e di due file .js anch'essi in uno, riducendo così di due unità il numero complessivo delle richieste HTTP della pagina.
Un buon tool online che vi consente, tra le altre cose, di monitorare in modo preciso numero e tipologia delle vostre richieste HTTP è http://www.websiteoptimization.com/services/analyze/


Spostare i file Javascript in fondo alla pagina

Il browser scarica i diversi componenti della pagina in modo sequenziale, esattamente nell'ordine con cui essi sono stati disposti.
E' quindi bene fare in modo che vengano prima scaricati gli oggetti essenziali (CSS, codice HTML) alla composizione della pagina, in modo che questa venga presentata all'utente nel minor tempo possibile, e solo in seguito gli script necessari per "far funzionare" specifici elementi: ad esempio la validazione Javascript di un form, una libreria Javascript per la gestione di una fotogallery

articolo originale:


Condividi su Facebook

giovedì 1 aprile 2010

La paginazione secondo SEOmoz



Il post di oggi proviene da un tweet del mitico Mister jinx al secolo Francesco Tinti. SEOmoz ha tracciato le linee guida per una corretta paginazione.

Vediamo di tradurre le parti salienti dell'articolo in Italiano:

"La paginazione interessa due elementi critici di accessibilità dei motori di ricerca. 

a) Profondità di scansione: Lo spider deve raggiungere anche le pagine più remote in pochi click.

b) Contenuti duplicati: I motori di ricerca trattano l'argomento con molto interesse, verrà pubblicato soltanto un url in presenza di più url duplicati.

Quando è necessaria la paginazione?

Quando un sito contiene molte pagine diventa assolutamente necessaria. Pertanto, le pagine che contengono centinaia o migliaia di link possono inavvertitamente danneggiare l'accesso dei motori di ricerca. La creazione di più sottocategorie può sembrare difficile o addirittura contro produttiva, ma l'aggiunta di un ulteriore livello di classificazione o di un maggior numero di sottocategorie può avere un interessante impatto positivo su entrambi i lati sia SEO e sia di usabilità del sito stesso.

To do:

- Cercate di creare un sistema di link sensato, non superando mai i 100 link per pagina.
- Mostrate i link più recenti on the top del vostro sito garantendo una link juice fluida.
- Usate link pertinenti per categorie e sottocategorie.
- Link di ritorno alla Home da ogni pagina.


Uso del Nofollow:

Non fate mai:

- Mettere un rel = direttiva canonica sui risultati impaginati che puntano di nuovo alla pagina  Potresti sviare i motori a pensare che hai solo una singola pagina di risultati".


Condividi su Facebook