Oggi è possibile realizzare un DR (disaster recovery) di macchine virtuali su una infrastruttura open e closed, (Es: Vmware) in modo semplice ed efficiente.

Per fronteggiare questa esigenza avanzata da svariati clienti nel tempo, la scelta del prodotto è ricaduta sul sistema di storage distribuito open source Ceph.

Realizzando 2 cluster storage in 2 posizioni geografiche distanti diversi km, è possibile replicare i dischi delle virtual machine (anche Vmware appunto) da un sistema ad un altro e così avere la continuità operativa.

Inoltre è possibile pensare di migrare tutti i servizi di un datacenter privato da una regione all’altra.

Questa attività ci ha coinvolto in diverse occasioni, per consentire di spostare le virtual machines asservite ad alcuni clienti da un datacenter ad un altro.

Il tutto conoscendo il prodotto ed avendo l’opportuno team a supporto e quindi non acquistando licenze software e basta.

Per noi la cosa che maggiormente conta è il supporto tecnico!

Ogni giorno affrontiamo le problematiche dei nostri clienti che cercano di avere sempre di più dal supporto IT.

La scelta del prodotto è fondamentale per poter risolvere i propri problemi in termini di infrastruttura.

Possiamo legarci ad un rinomato prodotto commerciale che ci fa brillare gli occhi offrendo supporto tecnologico mirabolante e demandando a noi solo l’acquisto e la facile gestione, oppure capire come funzionano le cose e scegliere in modo oculato ed opportuno.

Per poter consigliare i nostri clienti ed essere certi della soluzione al loro problema serve una quantità enorme di tempo (tante volte non pagato) per valutare, conoscere e gestire una tecnologia, quindi abbiamo scelto la strada più impervia, ma abbiamo ottenuto ben diverse soddisfazioni, sia in termini di conoscenza che economici.

Perché non trasformare questo tempo in know-how personale sul DR e poterlo valorizzare in modo opportuno?

Questo modo di operare a nostro avviso è possibile soprattutto con i prodotti open source e la nostra associazione Enterprise OSS ci permette di avere un confronto tra più professionisti, al fine di evolvere velocemente in questo mondo informatico sempre più complesso.

Proprio per questo nel corso degli anni mi sono dedicato a capire come funzionassero i sistemi di storage per gli ambienti di virtualizzazione.

Parlando con molteplici aziende che vendevano tecnologie di questo tipo in diverse occasioni mi sono imbattuto in prodotti non maturi, banali o peggio, che non svolgevano il compito per cui erano stati concepiti come si deve.

Questo per sottolineare che anche il mondo closed non è affatto perfetto. Un prodotto anche se ne paghi la licenza di utilizzo, non è detto che sia ben funzionante… Purtroppo.

Il mondo Open invece ha un grande vantaggio, ci permette di valutare in modo più approfondito il prodotto e con le opportune capacità tecniche intuirne la bontà e lo stato di evoluzione.

Storage distribuito (non Ceph), una storia vera

Vi riporto un’esperienza personale, partendo da sistemi tradizionali che tutti voi conoscete mi sono avventurato nel mondo dello storage distribuito nel 2013.

Il prodotto in questione era Sheepdog, l’idea era buonissima, abbiamo partecipato anche al primo meeting ad Hong Kong e conosciuto gli sviluppatori.

Il sistema era ancora immaturo per alcuni aspetti, ma nonostante tutto per due anni ci ha fatto lavorare egregiamente in un piccolo datacenter.

Da qui l’evoluzione tecnologica e l’impegno personale ci hanno portato alla conoscenza di Ceph.

Ora il prodotto Ceph è indiscutibilmente il leader nel settore open source e non solo, ne abbiamo parlato qui, qui e qui.

Per chi ha poco tempo per la lettura consigliamo il podcast del nostro blog e vi rimandiamo a questo link: https://www.spreaker.com/user/enterpriseoss.

L’evoluzione sistemistica personale mi ha portato a poter gestire nodi e cluster anche geografici senza dover avere grandi software house alle spalle. Il vero business lo fanno il supporto ed i tecnici che seguono questo sistema.

Non vorrei addentrarmi nella descrizione della tecnologia, ma quello che voglio riportarvi, esperienza maturata sul campo, è che adottando questa tecnologia di storage opensource gratuito è possibile realizzare con poco sforzo DR geografici in ambiente Vmware e Kvm.

E cosa di non trascurabile rilevanza: il tutto è spesso alla portata delle proprie risorse, anche economiche.

Al contrario la scelta di uno storage “classico” comporta spesso un lock-in e la completa revisione della infrastruttura IT, per poter pensare ad un DR sicuro, efficiente e di facile implementazione e gestione.

Spero con questo breve articolo di aver stimolato la curiosità di chi ha necessità di implementare infrastrutture simili.

Per approfondimenti:

le tecnologie menzionate sono Ceph, Kvm, Vmware, Proxmox, iSCSI, Rbd.

Ing. Alessandro Bolgia

Oggi parliamo di Ceph.

Non tutti lo conoscono, pochi sanno farlo funzionare a dovere, molti si avvicinano ma poi non sanno come metterlo in produzione.

Vi basterà aprire il portale https://ceph.io/ per trasformarvi in un moderno capitano Nemo (l’ultima versione di Ceph si chiama guarda caso Nautilus) ma se doveste decidere di intraprendere un avventuroso viaggio non costruirete uno straordinario sottomarino per solcare i sette mari, ma potrete creare un non meno straordinario cluster a partire da 3 nodi di calcolo o di storage o addirittura iperconvergente.

Per chiarirci le idee partiamo da un fidato wiki

“Ceph è un archivio oggetti distribuito e un file system progettato per fornire prestazioni, affidabilità e scalabilità eccellenti.”

E ancora

“Nell'informatica, Ceph è una piattaforma di archiviazione software gratuita, implementa l'archiviazione di oggetti su un singolo cluster di computer distribuito e fornisce interfacce per l'archiviazione a livello di oggetto, blocco e file. Ceph mira principalmente al funzionamento completamente distribuito senza un singolo punto di errore, scalabile al livello exabyte e disponibile gratuitamente.

Ceph replica i dati e li rende resistenti ai guasti, utilizzando hardware di base e non richiede alcun supporto hardware specifico. Come risultato della sua progettazione, il sistema è sia autorigenerante che autogestito, con l'obiettivo di ridurre al minimo i tempi di amministrazione e altri costi.”

Fonte: https://en.wikipedia.org/wiki/Ceph_(software)

Ceph è per chi vuole lasciare un segno

In questa sommaria descrizione si nota sicuramente la natura completamente open source di questo software, per altro sottolineata sulla home page del prodotto stesso, dove si legge a caratteri cubitali

GET INVOLVED cioè METTITI IN GIOCO, chiaro invito a chi se la sente ad addentrarsi tra i meandri del codice e migliorarlo in caso se ne abbiano le capacità, oppure a partecipare alla community.

Fonte: https://ceph.io/get-involved/

I Big dell’open source lo scelgono

Per la verità è dal 2014 che nomi come Red Hat prima e Suse poi hanno deciso di appoggiare i loro progetti di storage enterprise su questo oggetto, sempre meno misterioso.

Se ne fa chiara menzione in questo stralcio di storia su wikipedia, dove si scopre che l’inventore di Ceph e fondatore della Inktank (l’azienda finanziatrice del progetto) è Sage Weil e che

“..nell'aprile 2014, Red Hat acquistò Inktank per 175 milioni di dollari, portando in casa la maggior parte dello sviluppo di Ceph.
Successivamente nell'ottobre 2015, è stato istituito il Ceph-Community-Advisory-Board per guidare la community open dedita allo sviluppo della tecnologia dello storage software defined. Il comitato consultivo include membri della comunità Ceph appartenenti ad organizzazioni IT globali che si impegnano nel progetto, fanno la loro apparizione individui di Canonical, CERN, Cisco, Fujitsu, Intel, Red Hat, SanDisk e SUSE.”

Enterprise OSS e lo storage software defined

Enterprise OSS da 5 anni ha scoperto questo strumento ed ha voluto fin da subito implementarlo nei propri progetti, in datacenter oppure on premise e grazie ad un tuning sempre più fine è in grado di realizzare cluster Ceph perfettamente stabili e scalabili a partire da 3 nodi fisici.

Questi risultati sono frutto di studio preliminare, svariati test in laboratorio e applicazione sul campo. Ad oggi diversi clienti si avvalgono di queste soluzioni per la loro infrastruttura iperconvergente o di storage software defined.

Insomma questo Ceph sembra un duro anche se l’etimologia del nome sembra raccontare altro.

“Il nome "Ceph" è un'abbreviazione di "cefalopodi", una classe di molluschi che include il polpo. Il nome (enfatizzato dal logo) suggerisce il comportamento altamente parallelo di un polipo ed è stato scelto per associare il file system a "Sammy", la mascotte della lumaca di banana di UCSC.”

Ceph e i grandi nomi:

Alla prova dei fatti comunque non si parla di Ceph solo in Enterprise OSS, anche alla NASA hanno deciso di presentarlo e di servirsene per archiviare l’immane mole di dati giornaliera che proviene dai satelliti sopra le nostre teste

e al CERN lo si usa in ambiente di ricerca

nel video seguente infatti si può vedere come gli scienziati del CERN utilizzino Ceph in una crescente varietà di modi, dall'archiviazione a blocchi per OpenStack ai filesystem HPC all'archiviazione di oggetti S3.

Il funzionamento di questa infrastruttura da circa 20 petabyte richiede misurazioni continue e ottimizzazione delle prestazioni per garantirne il funzionamento ottimale.

Viene presentata la loro esperienza di ottimizzazione e ridimensionamento di RBD e CephFS,... E dal punto di vista operativo viene presentato il loro approccio alla messa in servizio e alla disattivazione dell'hardware, dimostrando alcune funzionalità avanzate come il bilanciamento Ceph.

In conclusione viene presentato cosa si prevede di implementare per gli storage al CERN, mostrando diversi scenari su come potrebbe svolgere un ruolo in questo progetto.

E a proposito di diffusione è ormai nota l’apertura del mondo dei container, docker e kubernetes su tutti a Ceph, che viene integrato tra gli storage necessari a far girare le micro applicazioni tipiche di questa tecnologia.

Per concludere non posso che invitarvi a visitare i nostri canali e valutare un approfondimento su questa tecnologia grazie ai nostri corsi di formazione, siamo sempre alla ricerca di partner e collaboratori.

Progetti Ceph - https://www.enterpriseoss.com/projects/

Assistenza Ceph - https://www.enterpriseoss.com/assistenza-proxmox/

Partnership EOSS - https://www.enterpriseoss.com/open-source-network/

Alla prossima settimana.

Enterprise OSS Staff

© 2022 All rights reserved