Vado spesso da clienti (o potenziali tali) per presentare Cinetica e i servizi che facciamo ma, devo dire la verità, non sono sicuro che il messaggio che diamo sia sempre recepito al primo approccio.

Una delle nostre specializzazioni più forti è lo storage, insieme alla virtualizzazione sono quelle in cui crediamo e investiamo di più.

Lo storage è dove stanno i dati di tutta l’azienda e, sempre di più, i dati sono sinonimo di ricchezza. Dall’altra parte però, per quanto i dati siano importanti, spesso vedo trascurati molti fattori di base che mi portano a pensare quanto questi aspetti siano sottovalutati. Quando conosco un nuovo cliente, magari per un nuovo progetto di virtualizzazione, mi stupisco di quanto ci si concentri, ancora oggi, su aspetti secondari della vicenda.

Tralasciando il software, vorrei concentrarmi su quello in cui spesso vengo coinvolto: l’infrastruttura.

 

i server

Nel 2010 i server (parlo di progetti di virtualizzazione) sono quanto di più standard possa esistere!  I fornitori principali sono 3: HP, Dell, IBM… poi gli altri con quote marginali.

Usano tutti le stesse CPU, gli stessi chipset, gli stessi bus, le stesse HBA, stesso tipo di alimentazioni, form factor e quant’altro: a parità di condizioni vanno tutti alla stessa velocità. Quello che cambia sono il colore, il marchietto davanti e poco altro. Questo vale per i server da rack ma anche, a parte qualche particolarissimo caso, per le blade.

La differenza è minima se non nulla e non penso che, a parte l’amore che un sysadmin può avere per una particolare marca, l’affezione per il commerciale che ti segue da anni o, ancora, qualche fisima personale, ci siano caratteristiche così particolari da far sbilanciare la scelta per uno o per l’altro vendor. Dovrebbe essere solo una questione di prezzo!

E’ vero, alcuni vendor spacciano alcune peculiarità come l’ultima essenza dell’IT ma poi, a bene vedere, ci si trova sempre con hardware che per il 80/90% è standard e con quel 10/20% (pagato oro) che non riuscirò mai a sfruttare perchè nessuno sviluppa software ad hoc per quella verticalizzazione. In pratica sono soldi buttati via.

La differenza la possono fare i servizi di assistenza ma anche qui, 99 casi su 100, è più una questione di pelle che di reale qualità o inefficienza di qualche servizio.

Un altro aspetto che spesso mi viene detto come importante è la razionalizzazione del DC su un marchio per avere sempre le stesse procedure da seguire… ma, anche se teoricamente è vero, in realtà è un’altra bufala visto che ogni generazione di server spesso ha dei cambiamenti radicali di architettura e deii tool di gestione.

Insomma, dimensionati correttamente e a parità di caratteristiche (CPU, RAM, #Ethernet, ecc.), i server sono tutti simili e danno risultati simili.

 

lo storage

Qui le cose cambiano radicalmente, perchè qui ci stanno i dati dell’azienda e lo storage non è (ancora) considerabile standard o commodity. Spesso le funzionalità fanno la differenza ma ancora di più lo fanno il perchè di alcune scelte!

Per quanto mi capita di notare una concentrazione sui server vedo sempre un po di distaccamento verso storage (in particolare sulle SAN). Sembra quasi che lo storage sia una specie di scatola nera che meno la si tocca e meglio è!

Una delle richieste che mi vengono fatte spesso durante la prima riunione (anche in aziende insospettabili) è del tipo: “Ah, e poi per lo storage abbiamo ipotizzato 20TB di spazio… -alcuni aggiungono- metà veloce e metà lento.”. Quando sento questa affermazione mi si gela il sangue.

In quel momento capisco che non è stata fatta nessuna analisi e che mi trovo nel mezzo di un campo minato.

I rischi sono due:

 

  1. la stima del cliente è sbagliata per eccesso: il sistema costerà più del dovuto senza portare vantaggi percepibili. Quasi nessuno si accorgerà dell’accaduto e, a parte i soldi dell’azienda buttati via, tutto andrà per il meglio.
  2. la stima del cliente è sbagliata per difetto: questo è il caso peggiore perchè, una volta installato il tutto, le prestazioni potrebbero essere lontano da quanto desiderato e le conseguenze gravi.
  3. in realtà c’è una terza via… siamo tutti fortunati e si ottiene il risultato aspettato. (ma non succede quasi mai)

iops

 

L’obiettivo di questo post non è quello di dire che uno storage è meglio di un altro (questo lo dico in molti altri, 😉 ) ma che è necessario analizzare con cura le esigenze, misurare dettagliatamente quanto già esiste, stimare le necessità future partendo da workload e best practice consolidate; soprattuto è importante condividere con il cliente i risultati in modo che siano largamente capiti e condivisi.

Una volta capito bene cosa serve e come sono i carichi di lavoro reali è

 

spazio

molto più facile dimensionare correttamente qualsiasi storage per non avere brutte sorprese.  Una analisi dettagliata e un report chiaro possono facilmente far scoprire hot spot (termine usato per descrivere un particolare tipo di criticità in termini di prestazioni) o altre sorprese molto interessanti che, con una semplice riorganizzazione dei dati, possono far risparmiare tanto tempo e denaro!

Il nostro approccio quindi è questo: analizziamo con cura l’ambiente e cerchiamo di capire come i dati si muovono all’interno dello storage. Sulla questa base produciamo grafici e tabelle che aiutano i nostri cliente a comprendere cosa sta succedendo ai loro dati e in che modo. Se questi confermano le nostre visioni (99% è sempre così) produciamo un progetto per l’implementazione dell’infrastruttura… quasi sempre diverso da quello che il cliente ipotizzava, ma almeno sa perchè e, soprattutto, ha la quasi matematica certezza di ottenere un successo con le giuste risorse!