Ceph il futuro dello storage

Ricercando costantemente negli anni soluzioni innovative, un pò per curiosità, un pò per gioco ed un pò per esigenze professionali ci siamo imbattuti nel progetto Ceph.

Inizialmente parlare di Software Defined Storage sembrava la solita soluzione fantascientifica di fronte a colossi dello storage quali EMC2, IBM, NetApp, Oracle e simili, senza contare le infinite convention e meeting di popolari aziende software ed hardware che denigravano sempre le soluzioni open source (ma ogg sappiamo come sta andando..).

Questo successe quando decidemmo di utilizzare Linux come sistema operativo per le aziende all'inizio degli anni 2000, per poi seguire lo stesso trend con la virtualizzazione grazie a Kvm (alternativa open a VMware e Xen di Citrix).

Oggi possiamo dire che Linux è il sistema operativo più utilizzato al mondo nell'ambito della produzione enterprise e Kvm un hypervisor molto apprezzato [fonte 1, 2].

E molto probabilmente questo avverrà anche per Ceph in ambito storage.

Indice:

  1. Lo storage fino a qualche tempo fa
  2. Possiamo dire che Ceph è il Linux dello storage?
  3. Il vantaggio di essere “software defined”
  4. Ceph apre la strada a nuove figure professionali e a nuove soluzioni

Lo storage fino a qualche tempo fa

La verità è che un buon prodotto open source nasce dalla massa, dalla necessità di inventare e cambiare radicalmente il mondo (solo software?), gettando nelle fauci affamate dei nerd delle iperboliche novità, dando loro la possibilità di scrivere del buon codice.

Poi alcuni progetti si concretizzano e necessitano di avere un supporto professionale.

Ora tralasciando prodotti o veri e propri brand che già hanno segnato la strada (Linux, Red Hat, Kvm, Suse, Mariadb, Apache, etc) mi focalizzerei su una rivoluzione che è in atto e sta cambiando radicalmente il concetto di storage o meglio di archiviazione dei dati.

Negli anni in cui stiamo vivendo siamo circondati da informazioni, segnali elettrici ed impulsi elettromagnetici che ci incasellano, tracciano, controllano ed aiutano quotidianamente.

Avere dati è sinonimo di potere, e di questo forse adesso se ne stanno accorgendo un pò tutti.

Quell'apparato che si utilizza per memorizzare i dati è definito imperativamente con una parola inglese: “storage".

Fino a qualche anno fa questo “storage” era per lo più una parola che troneggiava nelle infrastrutture enterprise, e ci si avvicinava ad esso con un certo sentimento di meraviglia, timore e rispetto.

Lo storage era un argomento serio solo per gli eletti del mondo business enterprise, principalmente per gli annessi costi e le operazioni di manutenzione ad alta professionalità necessarie, concetti che oggi stridono con gli investimenti che impongono, vista l’obsolescenza rapidissima delle soluzioni odierne di archiviazione dei dati.

Questo impero, da tanti considerato intoccabile fino a ieri, oggi non lo è più, si è fatto strada un movimento dal basso, un prodotto open source che può essere il game changer in questo regno: il suo nome è Ceph.

Possiamo dire che Ceph è il Linux dello storage?

Ceph viene definito il Linux dello storage, cerchiamo di capire il perché con un esempio.

Nessuno oggi pensa a quale sistema operativo Unix-like usare, perché quello open source è il migliore, quindi tutti lo usano di default e si tratta di Linux.

Anche e probabilmente proprio grazie a questa diffusione Linux è in continuo miglioramento.

Bene, Ceph si sta muovendo nello stesso modo nel mondo dello Storage.

Inizialmente risultava un prodotto di nicchia, relegato a grandi ambiti di virtualizzazione (Openstack e simili).

Successivamente a seguito della continua necessità di spazio di archiviazione e alle

e altre funzionalità richieste insistentemente il mondo IT ha capito che si deve guardare alle soluzioni Software Defined Storage.

E il re indiscusso di questo ambito è risultato Ceph, motivo per il quale oggi molte aziende contribuiscono allo sviluppo del prodotto ed alla sua manutenzione.

Ne è prova il fatto che anche IBM ha comunicato in data 09.10.2022 che il prodotto Red Hat Ceph Storage Enterprise diverrà IBM cloud Storage [fonte: 1].

 

Il vantaggio di essere “software defined”

Seguendo da anni lo sviluppo di Ceph abbiamo notato l'ingresso nel mondo "Linux dello Storage" di aziende come Nvidia, GoDaddy, Canonical, SUSE, IBM e sopratutto alla nascita della Ceph Foundation.

Questo come naturale evoluzione di un progetto assolutamente fondamentale e necessario.

Ceph è open source ed è software defined, è studiato per funzionare su hardware commodity, ovvero su hardware da riutilizzare indipendentemente che sia nuovo o di un particolare brand, che sia affidabile o meno, indipendentemente anche dal brand del network e da come sono interconnessi tra loro i vari elementi, perché è completamente software defined.

Ovviamente questa libertà di scelta ed indipendenza, classiche caratteristiche nel mondo open source, si traducono in una certa complessità di gestione del sistema.

L'approccio non convenzionale allo storage fa si che vi siano nuovi concetti da affrontare e che funzioni fuori dagli schemi tradizionali, quindi è fondamentale avere le skills ed i tecnici giusti per mettere in funzione Ceph.

Questo aspetto può in prima battuta intimorire, ma del resto quello che vale oggi più che mai sono la conoscenza, le skills e la disponibilità ad interoperare tra aziende e persone.

Sicuramente rispetto ad una soluzione "boxata" richiede uno sforzo economico che si sposta sulla progettazione ed assistenza (o supporto), ma ne vale di gran lunga la pena.

Ceph apre la strada a nuove figure professionali e a nuove soluzioni

Ceph a nostro parere apre un mercato nuovo, dove si creeranno degli specialisti per la gestione dei dati distribuiti su larga scala, così come si creeranno prodotti nuovi che appoggiano le loro basi proprio su Ceph.

Il poter utilizzare uno Storage Software Defined elimina i lock-in dei vendor di hardware prettamente dediti allo storage, permette la realizzazione di sistemi di storage clusterizzati sia in ambito fisico che virtuale ed anche on-demand in modo automatico (Kubernetes).

Inoltre l'open source permette di implementare sopra a Ceph (Software Defined Storage) tutti i protocolli di accesso ai dati che sono normalmente utilizzati: SMB, NFS, RBD, ISCSI, CephFS, S3, Swift.

Così facendo questi protocolli ereditano la scalabilità, ridondanza, affidabilità, auto riparazione, distribuzione e replica che Ceph intrinsecamente prevede e che magari non erano previsti all'implementazione dello specifico protocollo.

Anche l'avvento dei container e di Kubernetes ha accelerato queste richieste.

L'utilizzo di ambienti a micro servizi richiede comunque la gestione di uno storage persistente, che può essere attivato e disattivato a piacimento, modificato nella forma e dimensione senza l'intervento manuale.

Ceph si integra in modo perfetto in questi ambienti.

L'industria dei datacenter sta sperimentando un’esplosione delle richieste di capacità in termini di spazio, consumi, affidabilità e ridondanza da parte di molti mercati emergenti.

Settori come il 5G, l’IoT, l'intelligenza artificiale, il machine learning, cold storage oppure edge computing stanno versando benzina sul fuoco già acceso dalla necessità di exabyte di spazio disponibili per salvare dati.

La notizia è che Ceph è già pronto! E voi?

ITServicenet vi supporta per la consulenza, progettazione e manutenzione della soluzione Ceph.

Ing. Alessandro Bolgia - Linkedin

Altri articoli su Ceph:

Ceph e il DR per tutte le tasche

Ceph Octopus, note di una evoluzione

ITServicenet = Kubernetes + Ceph + Nextcloud

Ceph la via flessibile

Ceph per lo storage software defined

Oggi è possibile realizzare un DR (disaster recovery) di macchine virtuali su una infrastruttura open e closed, (Es: Vmware) in modo semplice ed efficiente.

Per fronteggiare questa esigenza avanzata da svariati clienti nel tempo, la scelta del prodotto è ricaduta sul sistema di storage distribuito open source Ceph.

Realizzando 2 cluster storage in 2 posizioni geografiche distanti diversi km, è possibile replicare i dischi delle virtual machine (anche Vmware appunto) da un sistema ad un altro e così avere la continuità operativa.

Inoltre è possibile pensare di migrare tutti i servizi di un datacenter privato da una regione all’altra.

Questa attività ci ha coinvolto in diverse occasioni, per consentire di spostare le virtual machines asservite ad alcuni clienti da un datacenter ad un altro.

Il tutto conoscendo il prodotto ed avendo l’opportuno team a supporto e quindi non acquistando licenze software e basta.

Per noi la cosa che maggiormente conta è il supporto tecnico!

Ogni giorno affrontiamo le problematiche dei nostri clienti che cercano di avere sempre di più dal supporto IT.

La scelta del prodotto è fondamentale per poter risolvere i propri problemi in termini di infrastruttura.

Possiamo legarci ad un rinomato prodotto commerciale che ci fa brillare gli occhi offrendo supporto tecnologico mirabolante e demandando a noi solo l’acquisto e la facile gestione, oppure capire come funzionano le cose e scegliere in modo oculato ed opportuno.

Per poter consigliare i nostri clienti ed essere certi della soluzione al loro problema serve una quantità enorme di tempo (tante volte non pagato) per valutare, conoscere e gestire una tecnologia, quindi abbiamo scelto la strada più impervia, ma abbiamo ottenuto ben diverse soddisfazioni, sia in termini di conoscenza che economici.

Perché non trasformare questo tempo in know-how personale sul DR e poterlo valorizzare in modo opportuno?

Questo modo di operare a nostro avviso è possibile soprattutto con i prodotti open source e la nostra associazione Enterprise OSS ci permette di avere un confronto tra più professionisti, al fine di evolvere velocemente in questo mondo informatico sempre più complesso.

Proprio per questo nel corso degli anni mi sono dedicato a capire come funzionassero i sistemi di storage per gli ambienti di virtualizzazione.

Parlando con molteplici aziende che vendevano tecnologie di questo tipo in diverse occasioni mi sono imbattuto in prodotti non maturi, banali o peggio, che non svolgevano il compito per cui erano stati concepiti come si deve.

Questo per sottolineare che anche il mondo closed non è affatto perfetto. Un prodotto anche se ne paghi la licenza di utilizzo, non è detto che sia ben funzionante… Purtroppo.

Il mondo Open invece ha un grande vantaggio, ci permette di valutare in modo più approfondito il prodotto e con le opportune capacità tecniche intuirne la bontà e lo stato di evoluzione.

Storage distribuito (non Ceph), una storia vera

Vi riporto un’esperienza personale, partendo da sistemi tradizionali che tutti voi conoscete mi sono avventurato nel mondo dello storage distribuito nel 2013.

Il prodotto in questione era Sheepdog, l’idea era buonissima, abbiamo partecipato anche al primo meeting ad Hong Kong e conosciuto gli sviluppatori.

Il sistema era ancora immaturo per alcuni aspetti, ma nonostante tutto per due anni ci ha fatto lavorare egregiamente in un piccolo datacenter.

Da qui l’evoluzione tecnologica e l’impegno personale ci hanno portato alla conoscenza di Ceph.

Ora il prodotto Ceph è indiscutibilmente il leader nel settore open source e non solo, ne abbiamo parlato qui, qui e qui.

Per chi ha poco tempo per la lettura consigliamo il podcast del nostro blog e vi rimandiamo a questo link: https://www.spreaker.com/user/enterpriseoss.

L’evoluzione sistemistica personale mi ha portato a poter gestire nodi e cluster anche geografici senza dover avere grandi software house alle spalle. Il vero business lo fanno il supporto ed i tecnici che seguono questo sistema.

Non vorrei addentrarmi nella descrizione della tecnologia, ma quello che voglio riportarvi, esperienza maturata sul campo, è che adottando questa tecnologia di storage opensource gratuito è possibile realizzare con poco sforzo DR geografici in ambiente Vmware e Kvm.

E cosa di non trascurabile rilevanza: il tutto è spesso alla portata delle proprie risorse, anche economiche.

Al contrario la scelta di uno storage “classico” comporta spesso un lock-in e la completa revisione della infrastruttura IT, per poter pensare ad un DR sicuro, efficiente e di facile implementazione e gestione.

Spero con questo breve articolo di aver stimolato la curiosità di chi ha necessità di implementare infrastrutture simili.

Per approfondimenti:

le tecnologie menzionate sono Ceph, Kvm, Vmware, Proxmox, iSCSI, Rbd.

Ing. Alessandro Bolgia

installazione Cephadm

(Estratto da un articolo di Sage Weil: https://ceph.io/ceph-management/introducing-cephadm)

Negli anni è emersa un'ampia varietà di strumenti di distribuzione Ceph con l'obiettivo di rendere lo storage Ceph più facile da installare e gestire. La maggior parte di questi ha sfruttato strumenti già esistenti come Ansible, Puppet e Salt, portando con sé un ecosistema esistente di utenti e un'opportunità per allinearsi a un investimento esistente da parte di un'organizzazione che utilizza un particolare strumento. Di conseguenza, tuttavia, l'investimento della comunità di Ceph è stato frammentato in molti sforzi diversi, i nuovi utenti devono affrontare una difficile scelta di strumenti all'inizio e i tentativi di semplificare l'esperienza e l'integrazione con Ceph stesso sono stati difficili.

Come molti altri, mi sono personalmente attaccato al datato strumento ceph-deploy, che ha il vantaggio di essere estremamente semplice da usare e capire (almeno per qualcuno che ha familiarità con Ceph), e ha la bella proprietà di non richiedere un investimento iniziale nell'installazione e nell'apprendimento di un altro strumento. Tuttavia, oggigiorno il ceph-deploy non è più manutenuto e non funziona nemmeno con alcune distribuzioni più recenti come RHEL / CentOS 8.

Soprattutto, tuttavia, nessuno di questi strumenti ha svolto un ottimo lavoro nel risolvere il problema principale: rendere Ceph molto facile da installare per un nuovo utente e rendere un cluster Ceph facile da manutenere nel tempo grazie alla perfetta integrazione con Ceph CLI e GUI . Una nuova API dell'orchestrator è stata introdotta per la prima volta in Ceph Nautilus per fornire un modo generico a Ceph - la CLI e il dashboard - di interagire con il suo ambiente di distribuzione, sia che si tratti di Rook o ceph-ansible o DeepSea, ma solo con Octopus questo ha raggiunto un livello di maturità in cui fornisce un'astrazione significativa su più backend: Rook per gli ambienti Kubernetes e Cephadm per tutti gli altri.

Uno sguardo a Cephadm

L'obiettivo di Cephadm è fornire un livello di installazione e gestione completo, robusto e ben manutenuto che può essere utilizzato per chiunque non utilizzi Ceph in Kubernetes. Gli obiettivi che ci siamo prefissati includono:

L'obiettivo con tutto ciò è quello di focalizzare l'attenzione degli sviluppatori Ceph e della comunità degli utenti su due sole piattaforme per la distribuzione e la gestione di Ceph - Cephadm per le implementazioni "bare metal" e Rook per l'esecuzione di Ceph in Kubernetes - e per fornire una simile esperienza di gestione per entrambi.

Guardando oltre…

Con la versione iniziale di Octopus, Cephadm ha un solido supporto per i servizi Ceph principali: RADOS, CephFS, RBD e RGW. Un certo numero di servizi secondari sono in fase di sviluppo attivo, incluso il supporto per gateway NFS e iSCSI, e il supporto CIFS (tramite Samba) dovrebbe seguire dopo. Tutte queste modifiche verranno trasferite su Octopus non appena saranno completate.

Nel frattempo, ci aspettiamo anche di migliorare la robustezza e l'intelligenza dell'algoritmo di "pianificazione" che decide dove eseguire i servizi. In questo momento, Cephadm distribuisce semplicemente i daemon di servizio tra gli host, ma (per impostazione predefinita) sceglie questi host a caso. Vorremmo migliorare questo impostando limiti di risorse sui contenitori di daemon (ad esempio, CPU e memoria) e scegliendo la posizione dei daemon in modo intelligente in base alle risorse disponibili su ciascun host.

Infine, ci aspettiamo di dedicare molto tempo nel prossimo ciclo di sviluppo a far emergere più funzionalità dell'orchestrator attraverso la dashboard Ceph per semplificare l'esperienza utente complessiva, in particolare per operazioni comuni come la distribuzione iniziale, l'espansione del cluster e la sostituzione di dispositivi di archiviazione guasti.

Ceph la via flessibile

La cosa che più mi dà soddisfazione del mondo “Open Source” (e che deriva direttamente dalla filosofia ‘free software’) è la possibilità e libertà di selezionare e sfruttare le potenzialità del codice già scritto, integrarlo con alcune funzionalità utili (vedi il caso di cv4pve-toolbox [https://www.cv4pve-tools.com/toolbox-proxmox-monitoring-tools/]) o comporlo con software nati per fare tutt’altro, ma che ad un certo punto della loro “storia” convergono e diventano complementari (ad esempio le dashboard di Grafana [https://grafana.com/grafana/]).

Se poi tale codice si adatta in maniera efficiente e resiliente ai più diversi dispositivi hardware, senza troppe pretese di compatibilità con i relativi software di basso livello

(leggi possibilità di adattare componenti drivers praticamente per qualsiasi piattaforma utilizzata, ad esempio piattaforme distribuite ARM [https://www.ambedded.com/]), allora il senso di potenza che suscita questo codice è necessariamente non trascurabile…

Ma un antico e saggio detto ci ricorda che “la potenza è nulla senza il controllo…”, ed ecco perché nell’attuale periodo di attività mi sto dedicando anche alla selezione ed approfondimento degli strumenti di analisi, controllo e monitoraggio di sistemi in ambito “Open Source”.

toolbox corsinvest

Diamo un nome a questo software

Anche i lettori più estranei a questo mondo dello sviluppo software e sistemistico hanno certamente intuito di quale codice software stavo parlando nel paragrafo sopra: necessariamente CEPH [https://docs.ceph.com/docs/master/releases/].

Un sistema di storage del tipo “software defined”, open, distribuito, scalabile, performante, potente, in continua evoluzione ed ampliamento nelle caratteristiche e funzionalità (vedi l’integrazione con le piattaforme di contenerizzazione [https://docs.ceph.com/docs/master/mgr/rook/]) grazie ad una comunità viva di utenti e sviluppatori [https://ceph.io/contribute/].

grafana

Non è un caso che proprio nelle ultime versioni del software sia stato potenziato nativamente il sistema di controllo e monitoraggio, utilizzando i migliori strumenti di telemetria, raccolta e visualizzazione grafica e lasciando la libertà allo sviluppatore di personalizzare il sistema sulle esigenze generali o più specifiche dei suoi interlocutori…

… direi MUSICA per le nostre orecchie!

Firmato: Dott. Alessandro Garbelli - Enterprise OSS founder

Oggi parliamo di Ceph.

Non tutti lo conoscono, pochi sanno farlo funzionare a dovere, molti si avvicinano ma poi non sanno come metterlo in produzione.

Vi basterà aprire il portale https://ceph.io/ per trasformarvi in un moderno capitano Nemo (l’ultima versione di Ceph si chiama guarda caso Nautilus) ma se doveste decidere di intraprendere un avventuroso viaggio non costruirete uno straordinario sottomarino per solcare i sette mari, ma potrete creare un non meno straordinario cluster a partire da 3 nodi di calcolo o di storage o addirittura iperconvergente.

Per chiarirci le idee partiamo da un fidato wiki

“Ceph è un archivio oggetti distribuito e un file system progettato per fornire prestazioni, affidabilità e scalabilità eccellenti.”

E ancora

“Nell'informatica, Ceph è una piattaforma di archiviazione software gratuita, implementa l'archiviazione di oggetti su un singolo cluster di computer distribuito e fornisce interfacce per l'archiviazione a livello di oggetto, blocco e file. Ceph mira principalmente al funzionamento completamente distribuito senza un singolo punto di errore, scalabile al livello exabyte e disponibile gratuitamente.

Ceph replica i dati e li rende resistenti ai guasti, utilizzando hardware di base e non richiede alcun supporto hardware specifico. Come risultato della sua progettazione, il sistema è sia autorigenerante che autogestito, con l'obiettivo di ridurre al minimo i tempi di amministrazione e altri costi.”

Fonte: https://en.wikipedia.org/wiki/Ceph_(software)

Ceph è per chi vuole lasciare un segno

In questa sommaria descrizione si nota sicuramente la natura completamente open source di questo software, per altro sottolineata sulla home page del prodotto stesso, dove si legge a caratteri cubitali

GET INVOLVED cioè METTITI IN GIOCO, chiaro invito a chi se la sente ad addentrarsi tra i meandri del codice e migliorarlo in caso se ne abbiano le capacità, oppure a partecipare alla community.

Fonte: https://ceph.io/get-involved/

I Big dell’open source lo scelgono

Per la verità è dal 2014 che nomi come Red Hat prima e Suse poi hanno deciso di appoggiare i loro progetti di storage enterprise su questo oggetto, sempre meno misterioso.

Se ne fa chiara menzione in questo stralcio di storia su wikipedia, dove si scopre che l’inventore di Ceph e fondatore della Inktank (l’azienda finanziatrice del progetto) è Sage Weil e che

“..nell'aprile 2014, Red Hat acquistò Inktank per 175 milioni di dollari, portando in casa la maggior parte dello sviluppo di Ceph.
Successivamente nell'ottobre 2015, è stato istituito il Ceph-Community-Advisory-Board per guidare la community open dedita allo sviluppo della tecnologia dello storage software defined. Il comitato consultivo include membri della comunità Ceph appartenenti ad organizzazioni IT globali che si impegnano nel progetto, fanno la loro apparizione individui di Canonical, CERN, Cisco, Fujitsu, Intel, Red Hat, SanDisk e SUSE.”

Enterprise OSS e lo storage software defined

Enterprise OSS da 5 anni ha scoperto questo strumento ed ha voluto fin da subito implementarlo nei propri progetti, in datacenter oppure on premise e grazie ad un tuning sempre più fine è in grado di realizzare cluster Ceph perfettamente stabili e scalabili a partire da 3 nodi fisici.

Questi risultati sono frutto di studio preliminare, svariati test in laboratorio e applicazione sul campo. Ad oggi diversi clienti si avvalgono di queste soluzioni per la loro infrastruttura iperconvergente o di storage software defined.

Insomma questo Ceph sembra un duro anche se l’etimologia del nome sembra raccontare altro.

“Il nome "Ceph" è un'abbreviazione di "cefalopodi", una classe di molluschi che include il polpo. Il nome (enfatizzato dal logo) suggerisce il comportamento altamente parallelo di un polipo ed è stato scelto per associare il file system a "Sammy", la mascotte della lumaca di banana di UCSC.”

Ceph e i grandi nomi:

Alla prova dei fatti comunque non si parla di Ceph solo in Enterprise OSS, anche alla NASA hanno deciso di presentarlo e di servirsene per archiviare l’immane mole di dati giornaliera che proviene dai satelliti sopra le nostre teste

e al CERN lo si usa in ambiente di ricerca

nel video seguente infatti si può vedere come gli scienziati del CERN utilizzino Ceph in una crescente varietà di modi, dall'archiviazione a blocchi per OpenStack ai filesystem HPC all'archiviazione di oggetti S3.

Il funzionamento di questa infrastruttura da circa 20 petabyte richiede misurazioni continue e ottimizzazione delle prestazioni per garantirne il funzionamento ottimale.

Viene presentata la loro esperienza di ottimizzazione e ridimensionamento di RBD e CephFS,... E dal punto di vista operativo viene presentato il loro approccio alla messa in servizio e alla disattivazione dell'hardware, dimostrando alcune funzionalità avanzate come il bilanciamento Ceph.

In conclusione viene presentato cosa si prevede di implementare per gli storage al CERN, mostrando diversi scenari su come potrebbe svolgere un ruolo in questo progetto.

E a proposito di diffusione è ormai nota l’apertura del mondo dei container, docker e kubernetes su tutti a Ceph, che viene integrato tra gli storage necessari a far girare le micro applicazioni tipiche di questa tecnologia.

Per concludere non posso che invitarvi a visitare i nostri canali e valutare un approfondimento su questa tecnologia grazie ai nostri corsi di formazione, siamo sempre alla ricerca di partner e collaboratori.

Progetti Ceph - https://www.enterpriseoss.com/projects/

Assistenza Ceph - https://www.enterpriseoss.com/assistenza-proxmox/

Partnership EOSS - https://www.enterpriseoss.com/open-source-network/

Alla prossima settimana.

Enterprise OSS Staff

comunicazione efficace

Buongiorno a tutti,

oggi parliamo di comunicazione o meglio di comunicazione efficace.

Perché? Direte.

Enterprise OSS è un progetto, un’associazione, un gruppo di professionisti dell’open source.

Infatti, e non c’è modo migliore di parlare di questi temi in modo comprensibile ed efficace.

Bene, proviamo a fare un esempio.

Devo comunicare ad un pubblico molto targettizzato, alla mia nicchia, coloro che potranno capirmi e apprezzare cosa sono capace di fare, per esempio un cluster di storage per VMware con prodotti open source.

Come faccio?

Non posso certo calarmi nei panni di Alberto Angela e raccontarvi di come VMware è un virtualizzatore, in sostanza un software che costruisce sull’hardware dell’hardware “finto” o meglio virtuale appunto, ma altrettanto efficace.

Così efficace che riesce a gestire l’hardware vero per renderlo molto più produttivo.

O meglio posso farlo se il mio interlocutore è il mio amico d’infanzia con cui facevo a sportellate sotto canestro in qualche playground di periferia.

Ma se il mio interlocutore è un IT manager pluridecorato con la passione per il dettaglio maniacale e per le prestazioni misurate con metriche da server della NASA è evidente che non coglierò nel segno, che il mio racconto sarà troppo superficiale.

Quindi in primis devo capire a chi mi rivolgerò, in secondo luogo devo capire cosa voglio comunicare.

 

Voglio divulgare la conoscenza a piene mani senza ottenere nulla in cambio?

O voglio regalare conoscenza al fine di rendere più consapevoli i miei colleghi e trasformarli clienti, collaboratori, soci, complici? Qual è il mio obiettivo?

Questo è un fattore determinante che devo sapere, altrimenti rischio di comunicare in modo poco efficace.

Voi come invitereste ad uscire per la prima volta la vostra fiamma del momento, la persona che più desiderate al mondo stupire e conquistare, il vostro pensiero fisso dell’ultimo periodo?

Studiate una strategia: semplicità, seduzione, "tira e molla".. o prendete un gratta e vinci e sperate?

Capite cosa voglio dirvi?

Inoltre devo scegliere le parole giuste, il filo conduttore corretto, lo storytelling più adatto al mio interlocutore.

 

Perché vi racconto queste cose?

Altro esempio.

Ho in mente di diffondere strumenti software che ho creato per diagnosticare puntualmente cosa sta facendo il mio server, o i miei server, nodi, cluster, è lo stesso.

So per esperienza che i miei colleghi apprezzeranno uno strumento che a colpo d’occhio offre una panoramica della situazione, senza perdersi in articolati schemi sullo schermo, magari ottenibili solo a seguito di una complessa serie di click chirurgici su altrettanti menù a tendina o peggio di comandi scritti a mano in qualche shell (mi concederanno una licenza poetica i puristi della linea di comando).

Devo sviscerare qual è il valore aggiunto che questi strumenti possono offrire al mio cliente, devo descriverli raccontando quello che possono dare, che problemi possono risolvere, a nessuno interesserà una disanima tecnica sterile.

 

In sostanza cosa vi ho voluto raccontare in queste poche righe?

Che se raccontate una storia su quello che siete in grado di fare e lo fate pensando a chi vi leggerà e a come potrà essere utile quello che comunicate per Lui/Lei allora avrete creato una comunicazione efficace.

Giunti a questo punto dovrete solo scegliere gli strumenti adatti a comunicare.. ma questa è un’altra storia, un altro articolo, un altro racconto.

Intanto date un’occhiata ai due progetti linkati qui sotto e di cui vi ho parlato poco fa, chissà mai che sia stato un racconto efficace..

Alla settimana prossima.


Storage Open Source per VMware


Metriche e Tools Proxmox

wink enterprise oss

Upgrade, definizione

1. Incremento di un sistema di elaborazione con l’aggiunta di nuovi elementi hardware o software che ne migliorano le prestazioni

2. Aggiornamento di un prodotto software che ne migliora le prestazioni

Etimologia: ← voce ingl.; propr. ‘crescita, miglioramento’.

Garzanti Linguistica

Quando farlo?

Ecco la definizione di questo termine inglese: upgrade in ambito informatico, come al solito questa lingua globale ci permette di esprimere un intero concetto con una sola parola.

Né il termine anglosassone né la descrizione dello stesso però, ci rivelano quanto sia critica questa operazione.

Tutti noi a fronte di un miglioramento previsto, siamo pronti a mettere mano al sistema informativo, anzi molto spesso auspichiamo un upgrade

Ma ci sono upgrade che si possono fare e upgrade che non si possono fare

“Ho lavorato per anni nei ced di diverse piccole e medie imprese e ogni volta che si rendeva necessario fare un upgrade dei loro sistemi si ripresentavano puntali i soliti problemi

1. Di spazio: “l’armadio rack è pieno", oppure “non abbiamo l’armadio rack e non c’è spazio per mettere i nuovi server”, “il condizionatore non può reggere l’aggiunta di un nuovo hardware”, "l’ups è sottodimensionato per aggiungere altre macchine” etc..

2. Di soldi: “non possiamo permetterci di acquistare dei nuovi dischi per ampliare lo storage”

3. Di tempo: “come facciamo a fermare l’infrastruttura per tutto quel tempo? Noi dobbiamo lavorare, non possiamo permetterci una migrazione dei dati”

Spesso si tende a sacrificare un miglioramento certo della produzione a causa di problemi di vario genere, il cui “ammortamento” potrebbe essere rapido grazie proprio all’implementazione dell’upgrade a cui si rinuncia.

L’avvento della virtualizzazione ha favorito il superamento di alcuni dei problemi suddetti, ma in Enterprise OSS ci è capitato di incontrare uno scenario ancora differente.

Ci contattano realtà che chiedono una consulenza per fare degli upgrade ai loro sistemi, ma hanno l’esigenza di non stravolgere il loro sistema informativo, tipicamente realizzato con prodotti closed, come VMware o Hyper-V.

Un caso tipico è quello in cui si debbano aggiungere nodi di calcolo e farli comunicare sugli stessi dati ai quali puntano i nodi di calcolo già esistenti.

Schema di sistema informativo tradizionale, con sole macchine fisiche

da fisico a virtuale

In questi casi la divisione projects si occupa di integrare nell’infrastruttura esistente una soluzione open source realizzando un vero e proprio sistema ibrido, al fine di realizzare un upgrade molto vantaggioso.

Il primo vantaggio è naturalmente il conseguimento dell’obiettivo: l’incremento della potenza di calcolo, principale richiesta del cliente.

Il secondo vantaggio è il risparmio in termini di licenze che una soluzione simile offre: si può continuare a mantenere i nodi preesistenti e “dare gas” dal punto di vista computazionale, senza sobbarcarsi un ulteriore esborso di denaro, atto a soddisfare politiche di licensing spesso opprimenti.

Il terzo vantaggio è la flessibilità: permettere a due diversi cluster di puntare allo stesso storage, tipicamente Ceph (in HA su un minimo di 3 nodi) è un grosso passo in avanti, che potrà permettere in futuro di alleggerire i costi anche nell’eventualità che lo storage vada ampliato.

cluster ibrido

Insomma, senza stravolgere sistemi già esistenti, si possono fare cose egregie, far coesistere e soprattutto interagire con successo il mondo closed con il mondo open.

Anche perché come gli addetti ai lavori già sanno, grazie alla sua grande diffusione e all’imminente entrata in gioco sulla grande rete dell’universo IoT, da qualche tempo il mondo open e quello closed hanno iniziato a strizzarsi un occhio, o forse due.

Poker d' Assi

Poker D' Assi

Ecco il solito titolo sensazionalistico per attirare l'attenzione! Cosa c’entra il poker con un blog che parla di informatica, di assistenza open source professionale, di software defined storage?

Se il lettore avrà pazienza il tempo di lettura di questa partita sarà breve [3 minuti]

Tutti gli amanti del mondo open conoscono Suse -> https://it.wikipedia.org/wiki/SUSE_Linux

In breve “SUSE Linux è la più longeva distribuzione GNU/Linux commerciale”, come molti progetti open offre la possibilità di avvalersi di assistenza a pagamento se necessario, ma naturalmente mantiene la sua anima originaria sempre intatta.

Si veda qui -> https://it.opensuse.org/Benvenuto_su_openSUSE.org

Ma allora perché parliamo di SUSE e non di qualche altra distribuzione linux?

Lo facciamo perché Suse è indubbiamente un asso nel mondo dell’open source, dunque abbiamo trovato il primo elemento per vincere la mano, ma quali sono gli altri 3?

Avete presente l’architettura ARM? Ok so che la conoscete ma un ripasso si può fare qui -> https://it.wikipedia.org/wiki/Architettura_ARM

“Arm è leader mondiale in ambito di architetture micro scalabili ad elevata efficienza energetica, utilizzate nel cuore delle applicazioni più evolute, come mobile (smartphone, tablet ecc.), ICT (enterprise server, IoT ecc.), industrial (sensoristica, controller ecc.) e ancora telecomunicazioni, medicale, automotive, home ecc”

Vi parlo di processori ARM perché esiste un appliance che ne ospita ben 8, i quali controllano ciascuno un disco e si rivela molto utile per creare “software defined storage” facilmente scalabili, a basso consumo e potenzialmente ibridi (rotativo e ssd) e il tutto condensato nello spazio di 1U.

Sto parlando di Ambedded, il secondo asso che abbiamo in mano

Ecco un breve video dimostrativo qui -> https://www.youtube.com/watch?v=uTH4x08Ouis

E qualche dettaglio in più qui ->

https://www.ambedded.com/ARM_Server_platform.html#header2-77

Ora, abbiamo parlato di software defined storage .. quindi per costituirlo abbiamo bisogno di un software, è qui che appare il terzo asso.

Si tratta di Ceph

[ Tradotto dall’inglese ] Nell’ambito dell'informatica, Ceph è una piattaforma di storage di software libero, implementa l'archiviazione degli oggetti su un singolo cluster di computer distribuito e fornisce interfacce per l'archiviazione a livello di oggetti, blocchi e file.

Certamente tutti e tre questi assi meriterebbero una descrizione più articolata e ci riproponiamo di proporla in questo blog, ma qui abbiamo da vincere una partita.

I primi 3 elementi li abbiamo in mano e hanno deciso di collaborare integrando le proprie peculiarità in un unico oggetto tecnologico del quale potete trovare notizia qui

https://www.suse.com/c/ambeddeds-arm-based-ceph-storage-appliance-goes-green/

Manca però un elemento.

Come è possibile progettare un software defined storage, implementarlo su processori ARM e realizzarlo grazie a SUSE Enterprise Storage 6, basato su Ceph?

Serve qualcuno che

  1. Conosca tutti e tre questi attori
  2. Abbia un'esperienza importante nell’utilizzo degli stessi
  3. Ne abbia studiato le funzionalità
  4. Li abbia testati in laboratorio
  5. Sia riuscito ad implementarli in produzione presso clienti

 

Questo ultimo attore esiste e si chiama Enterprise OSS.

La divisione storage di Enterprise OSS da molto tempo utilizza sia Ambedded che Suse, nonché implementa Ceph abitualmente nei propri cluster, sia in presenza di soluzioni totalmente open iperconvergenti sia in soluzioni ibride basate su piattaforma VMware.

storage software defined

Ecco realizzato il software defined storage

La mano di poker volge dunque al termine e i 4 assi sono sul tavolo, non ci resta che suggerirvi di guardare un video direttamente dal EOSS Lab dove si mostrano alcune delle meraviglie che questi sistemi all’opera possono realizzare.

Poker d’assi.

© 2022 All rights reserved