Web site performance, ecco come mantenere gli standard in tutti I domini internazionali

Il fattore umano nella gestione dei siti è ancora troppo rilevante e comporta dei rischi notevoli e non sempre prevedibili. Neutralizzarli è semplice: occorre un layer, che in automatico senza incidere sulla struttura del sito, assicuri ovunque prestazioni uguali.

Se avete un problema di conversion di una vostra campagna pubblicitaria o semplicemente siete a corto di risultati per le vostre strategie marketing, non vi sentite soli. C’è una frase di un tycoon americano scomparso negli Anni 20 del secolo scorso, John Wanamaker, che esperti di marketing e pubblicitari amano ancora oggi citare. Quella frase recita più o meno così: “So che la metà di quello che spendo in pubblicità è sprecato; il guaio è che non so quale metà sia”.

E sapete perché quella perla di umoristica saggezza è di moda anche all’alba degli Anni ‘20 di questo secolo? Perché pubblicitari ed esperti di marketing ancora cercano quella metà sbagliata, così come la cerca chi in advertising investe. Ma se con la cartellonistica o gli spot tv la caccia all’errore resta aperta e non esistono riferimenti certi, nel caso delle campagne sul web ci sono molte possibilità in più di scovare quel che non funziona, grazie alla maggiore controllabilità dei processi e dei risultati. Soprattutto, c’è la possibilità di porvi rimedio. Sia chiaro: le cause possono essere molteplici, ma spesso le si cerca nella creatività, che certo fa la sua parte, ma ancor più spesso il problema è nell’efficacia della distribuzione di quei contenuti anche se si tratta del proprio stesso sito web. E il diavolo si annida nei particolari.

I NEMICI DELLA STANDARDIZZAZIONE

Un esempio? Basta una foto sbagliata, troppo pesante e un sito normalmente performante diventa inadatto a realizzare le conversioni sperate. Un’immagine fuori standard, infatti, può rallentare anche un sito ottimizzato che solitamente offre velocità di caricamento ragguardevoli. L’effetto è non solo una perdita in termini di UX, – perché la piacevolezza di navigazione si trasforma in una penosa attesa che le pagine si carichino – ma anche di punti nei confronti di Google, che come si sa premia tanto questi aspetti quanto la qualità dei contenuti.

Numerosi studi, tra i quali alcuni effettuati anche dalla stessa casa di Mountain View, sottolineano che un solo secondo determina perdite di quasi il 15% in termini di conversione. Un disastro se si pensa a un e-commerce o a siti multi-country di grandi multinazionali, che sono proprio le tipologie di website più colpite da questo tipo di problemi. Il perché è presto detto. Tanto più complessi e ricchi sono l’articolazione e i contenuti di un sito internet, tanto più frequente e pesante saranno gli interventi di implementazione e quindi le possibilità di un errore umano. Un assunto particolarmente vero proprio nel caso dei websites multinazionali, la cui gestione per quanto centralizzata e standardizzata risente sempre del fattore umano e delle sue possibile negligenze. Per questo può capitare che una stessa foto, che magari in UK è ottimizzata ai fini della velocità del caricamento, in Francia venga invece lasciata a una size di decine di mega, “impallando” o quanto meno rallentando drammaticamente il sito. Un dettaglio, certo, ma esiziale, che può sfuggire e rendere insufficienti tutte le procedure di controllo più comuni.

BASTA IL LAYER GIUSTO A RISOLVERE IL PROBLEMA

Peggio. Il fattore umano rende insufficienti anche tutti quei sistemi e quelle piattaforme che negli ultimi anni hanno dato un valido contributo all’ottimizzazione delle prestazioni dei siti internet. Con il Cloud o i server in AWS, per esempio, le pagine di un sito e gli utenti finali sono diventati enormemente più vicini tra loro, con effetti determinanti sulla qualità di fruizione e sulla velocità e qualità di caricamento. Resta però che la pagina, per quanto più vicina all’utente, deve comunque ricomporsi nel browser del computer, dopo essere stata scomposta dal server. In questo senso, un grande contributo lo hanno dato anche i CDN di Akamai, per esempio, o ancora una volta quelli di Amazon, che comunque affidano sempre al server l’ottimizzazione delle pagine.

Tutti questi sistemi, dunque, per un verso o per l’altro non potranno porre rimedio a un errore di caricamento di un contenuto, avvenuto a monte della catena. In tali casi solo un layer, come iSmartFrame, posto nell’ultimo tratto a metà strada tra server ed utente, può neutralizzare l’errore e renderlo innocuo ai fini della funzionalità e prestazionalità del sito.

Il compito di iSmartFrame – un layer che può essere installato senza intervenire sulla struttura di qualunque web site e indipendentemente dall’eventuale utilizzo di AWS o CDM – è appunto restituire al browser la pagina già ricomposta e ottimizzata. Ovvero, nel caso della foto fuori formato, è il layer che si occupa del caricamento e dell’ottimizzazione, velocizzando così i tempi di caricamento da parte del browser ovunque esso si trovi e qualunque origine abbia il sito in questione. Con effetti positivi su UX e ottimizzazione Google, che diventano cosi indifferenti all’errore umano.

Che altro non è che quella standardizzazione e automazione che soprattutto i siti più complessi cercano anche per massimizzare gli investimenti marketing e pubblicitari, che ognuno sa sia sbagliati per metà, ma nessuno sa perché.

iSmartFrame: molto più di una CDN. La soluzione SaaS più avanzata per l’ottimizzazione dinamica e continuativa delle performance dei siti web.