Ho letto questo post di Martin G. (aka StorageBod), probabilmente ha avuto un incontro con qualche suo fornitore e si è innervosito, 😀

Certo, lo posso capire, se la risposta è quella che gli è stata data mi sembra il minimo: “Ahhh, we do but only when the wind blows from NNE and the Sun is waxing in Aries and the moon is mooning Virgo! Then we support 1000 spindles but at all other times, we support rather less than we say! I can’t tell you how much less…but we do support less or more, it depends!”

Ma da un certo senso il suo fornitore ha ragione… Dipende da cosa devi fare con quello lo storage!

Purtroppo, ad oggi, non esiste lo storage perfetto che ci risolve tutte le problematiche e che possa crescere all’infinito, in modo lineare, per costi, performance, capacità, funzionalità…. di solito più vado verso l’alto e più pago e meno ricevo!

Il problema è sempre quello: ogni volta che esce uno storage nuovo il fornitore deve dimostrare che il suo prodotto è più grande, più bello, più grosso di prima e degli altri competitor ma poi, nella realtà dei fatti questo non succede… Marketing e realtà non vanno mai molto d’accordo.

Il prossimo storage, di ogni vendor, supporterà sempre un numero superiore di dischi (fra l’altro di dimensioni più grandi e in più tipologie) ma quando, noi poveri rivenditori, dobbiamo configurarli siamo sempre lì a dover soffrire per dare un corretto sizing al cliente.

Un array è fatto di dischi (di diverso tipo, velocità e capacità), Controller (mediamente due nel mondo del modulare, N nel mondo enterprise), cache, canali di front end (normalmente Ethernet – iSCSI, NAS – e FC), Backend (di solito FC, ultimamente anche SAS), software (che spesso ne pregiudica la velocità). E’ il corretto bilanciamento di tutte queste parti a fare un buon prodotto ed è la corretta configurazione e posizionamento dello stesso a risolvere i problemi!

Non voglio prendere le difese dello “sprovveduto” (forse, più che sprovveduto, avveduto!) che è andato da Martin ma, in modo diverso, cerco sempre di spiegare al cliente che i dati presentati dal produttore sono sempre da prendere con le pinze (è un pò tutta fuffa insomma, 😀 ).

In assoluto il problema più grande è dato dal bilanciamento dell’architettura, capita spesso di vedere sistemi che posso ospitare fino a migliaia dischi e magari hanno, al massimo, 8 canali di backend! Non c’è dubbio che quel sistema, oltre un determinato numero di dischi, soffrirà di performance limitate e diventerà puramente capacitivo!

Il fatto che un sistema diventi capacitivo non significa che sia un pessimo sistema ma che è stato configurato con l’obiettivo della capacità senza pretese velocistiche particolari, un esempio? ho un cliente che ha dei sistemi HDS AMS pieni di dischi SATA e li usano esclusivamente per appoggiare grandi quantitativi di immagini durante un processo di lavorazione, i files sono grandi (10GB ognuno) e le scritture sono praticamente sequenziali con pochissimi accesi concorrenti…. 240 HD supportati, 240 usati, tanto spazio e buona velocità con tanta soddisfazione del cliente!!!

Certo che la stessa configurazione non andrebbe bene per nessun altro cliente, sfido chiunque a configurare lo stesso sistema e calarci dentro, ad esempio, centinaia di macchine virtuali VMware e sperare di ottenere un risultato decente… c’e’ poca cache, dischi lenti, back-end limitato, senza parlare poi dell’eventuale overhead aggiunto da funzionalità software che potrei avere in altri contesti…. insomma ad ognuno il suo!

ES