Oggi è possibile realizzare un DR (disaster recovery) di macchine virtuali su una infrastruttura open e closed, (Es: Vmware) in modo semplice ed efficiente.

Per fronteggiare questa esigenza avanzata da svariati clienti nel tempo, la scelta del prodotto è ricaduta sul sistema di storage distribuito open source Ceph.

Realizzando 2 cluster storage in 2 posizioni geografiche distanti diversi km, è possibile replicare i dischi delle virtual machine (anche Vmware appunto) da un sistema ad un altro e così avere la continuità operativa.

Inoltre è possibile pensare di migrare tutti i servizi di un datacenter privato da una regione all’altra.

Questa attività ci ha coinvolto in diverse occasioni, per consentire di spostare le virtual machines asservite ad alcuni clienti da un datacenter ad un altro.

Il tutto conoscendo il prodotto ed avendo l’opportuno team a supporto e quindi non acquistando licenze software e basta.

Per noi la cosa che maggiormente conta è il supporto tecnico!

Ogni giorno affrontiamo le problematiche dei nostri clienti che cercano di avere sempre di più dal supporto IT.

La scelta del prodotto è fondamentale per poter risolvere i propri problemi in termini di infrastruttura.

Possiamo legarci ad un rinomato prodotto commerciale che ci fa brillare gli occhi offrendo supporto tecnologico mirabolante e demandando a noi solo l’acquisto e la facile gestione, oppure capire come funzionano le cose e scegliere in modo oculato ed opportuno.

Per poter consigliare i nostri clienti ed essere certi della soluzione al loro problema serve una quantità enorme di tempo (tante volte non pagato) per valutare, conoscere e gestire una tecnologia, quindi abbiamo scelto la strada più impervia, ma abbiamo ottenuto ben diverse soddisfazioni, sia in termini di conoscenza che economici.

Perché non trasformare questo tempo in know-how personale sul DR e poterlo valorizzare in modo opportuno?

Questo modo di operare a nostro avviso è possibile soprattutto con i prodotti open source e la nostra associazione Enterprise OSS ci permette di avere un confronto tra più professionisti, al fine di evolvere velocemente in questo mondo informatico sempre più complesso.

Proprio per questo nel corso degli anni mi sono dedicato a capire come funzionassero i sistemi di storage per gli ambienti di virtualizzazione.

Parlando con molteplici aziende che vendevano tecnologie di questo tipo in diverse occasioni mi sono imbattuto in prodotti non maturi, banali o peggio, che non svolgevano il compito per cui erano stati concepiti come si deve.

Questo per sottolineare che anche il mondo closed non è affatto perfetto. Un prodotto anche se ne paghi la licenza di utilizzo, non è detto che sia ben funzionante… Purtroppo.

Il mondo Open invece ha un grande vantaggio, ci permette di valutare in modo più approfondito il prodotto e con le opportune capacità tecniche intuirne la bontà e lo stato di evoluzione.

Storage distribuito (non Ceph), una storia vera

Vi riporto un’esperienza personale, partendo da sistemi tradizionali che tutti voi conoscete mi sono avventurato nel mondo dello storage distribuito nel 2013.

Il prodotto in questione era Sheepdog, l’idea era buonissima, abbiamo partecipato anche al primo meeting ad Hong Kong e conosciuto gli sviluppatori.

Il sistema era ancora immaturo per alcuni aspetti, ma nonostante tutto per due anni ci ha fatto lavorare egregiamente in un piccolo datacenter.

Da qui l’evoluzione tecnologica e l’impegno personale ci hanno portato alla conoscenza di Ceph.

Ora il prodotto Ceph è indiscutibilmente il leader nel settore open source e non solo, ne abbiamo parlato qui, qui e qui.

Per chi ha poco tempo per la lettura consigliamo il podcast del nostro blog e vi rimandiamo a questo link: https://www.spreaker.com/user/enterpriseoss.

L’evoluzione sistemistica personale mi ha portato a poter gestire nodi e cluster anche geografici senza dover avere grandi software house alle spalle. Il vero business lo fanno il supporto ed i tecnici che seguono questo sistema.

Non vorrei addentrarmi nella descrizione della tecnologia, ma quello che voglio riportarvi, esperienza maturata sul campo, è che adottando questa tecnologia di storage opensource gratuito è possibile realizzare con poco sforzo DR geografici in ambiente Vmware e Kvm.

E cosa di non trascurabile rilevanza: il tutto è spesso alla portata delle proprie risorse, anche economiche.

Al contrario la scelta di uno storage “classico” comporta spesso un lock-in e la completa revisione della infrastruttura IT, per poter pensare ad un DR sicuro, efficiente e di facile implementazione e gestione.

Spero con questo breve articolo di aver stimolato la curiosità di chi ha necessità di implementare infrastrutture simili.

Per approfondimenti:

le tecnologie menzionate sono Ceph, Kvm, Vmware, Proxmox, iSCSI, Rbd.

Ing. Alessandro Bolgia

breve storia della virtualizzazione

Prologo: Storia della virtualizzazione

Un tempo il sistema informativo si progettava così:

Poi è arrivata la virtualizzazione e tutto è cambiato.

Indice:

-29 anni fa - Linux

-Nascono gli Hypervisors

-Microsoft entra in gioco

-Migrazioni di macchine tra hypervisors

29 anni fa - Linux Project Foundation

Il 25 agosto 1991, uno studente finlandese misterioso di nome Linus Benedict Torvalds ha inviato un messaggio al newsgroup Usenet comp.os.minix dicendo che stava lavorando su un sistema operativo gratuito come progetto per conoscere l'architettura x86.

Non poteva assolutamente sapere che stava lanciando un progetto che avrebbe cambiato per sempre l'industria informatica.

Ventinove anni dopo possiamo con certezza affermare che nessuno di noi poteva prevedere fino a che punto si sarebbe spinto Linux - una lezione interessante, che dovrebbe farci riflettere quando si cerca di immaginare cosa potrebbe accadere in futuro.

Al momento dell'annuncio, Linux era Vaporware; la prima versione sorgente non avrebbe visto la luce per un altro mese.

E nemmeno quella si chiamava “Linux", possiamo essere tutti contenti che il nome originale "Freax" non abbia attecchito.

Quando il codice fu pubblicato, era lungo solo 10.000 righe; la community ora aggiunge questa quantità di codice nel corso di circa tre giorni.

Non c'era stack di rete, erano supportate solo tastiere finlandesi, molte chiamate di sistema di base erano assenti e Linus non pensava che sarebbe mai stato possibile portare il kernel su un'architettura diversa da x86.

In altre parole, era un sistema giocattolo, non qualcosa che sembrava pronto a conquistare il mondo.

Da un articolo di Jonathan Corbet - https://lwn.net/Articles/698042/

Nascono gli hypervisors

Dopo qualche anno una società chiamata VMWare venne lanciata ufficialmente, alla conferenza DEMO organizzata da Chris Shipley, era il febbraio 1999. Il primo prodotto, VMware Workstation, è stato consegnato nel maggio 1999 e la società è entrata nel mercato dei server nel 2001 con VMware GSX Server (ospitato) e VMware ESX Server (senza host).

Passano altri 5 anni e la storia della virtualizzazione si arricchisce di un nuovo protagonista: infatti l'ecosistema dei software per server subisce un’ulteriore accelerazione, viene introdotto KVM (Kernel-based Virtual Machine, a part of the Linux Kernel)

KVM è stato annunciato per la prima volta il 19 ottobre 2006 dal suo creatore, Avi Kivity, in questo post nella mailing list del Kernel Linux.

Quella prima versione del set di patch KVM era compatibile con le istruzioni VMX trovate nelle CPU Intel che erano appena state introdotte al momento dell'annuncio. La compatibilità con le istruzioni SVM di AMD arrivò poco dopo. Il set di patch KVM è stato unito al kernel upstream nel dicembre 2006 ed è stato rilasciato come parte del kernel 2.6.20 nel febbraio 2007.

Da un articolo di Amit Shah - https://lwn.net/Articles/705160/

Microsoft entra in gioco

Passano ancora 2 anni ed anche un altro importante attore degli ambienti "server" entra in scena.

Microsoft Hyper-V Server 2008 viene rilasciato il 1 ottobre 2008.

È costituito da Windows Server 2008 Server Core più il ruolo Hyper-V; altri ruoli di Windows Server 2008 sono disabilitati e ci sono servizi Windows limitati.

Hyper-V Server 2008 è a sua volta limitato ad un'interfaccia a riga di comando utilizzata per configurare il sistema operativo host, l'hardware fisico e il software.

Un'interfaccia CLI basata su menu e alcuni file di script liberamente scaricabili semplificano la configurazione.

Inoltre, Hyper-V Server supporta l'accesso remoto tramite RDP. Tuttavia, l'amministrazione e la configurazione del sistema operativo host e delle macchine virtuali guest vengono generalmente eseguite in rete, utilizzando le console di gestione Microsoft su un altro computer Windows o System Center Virtual Machine Manager.

Ciò consente una configurazione molto più semplice e il monitoraggio del server Hyper-V.

Migrazioni di macchine tra hypervisors

Tutti questi sistemi (detti hypervisors) presentano ai sistemi operativi guest una piattaforma operativa virtuale e gestiscono l'esecuzione dell'SO stesso.

Più istanze di una varietà di sistemi operativi possono condividere le risorse hardware virtualizzate: ad esempio, le istanze Linux, Windows e macOS possono essere eseguite su una singola macchina x86 fisica.

L'insieme dei sistemi che si occupano del calcolo può essere completamente astratta.

A questo punto la migrazione tra una tecnologia di virtualizzazione e l'altra si riduce ad una conversione del formato dei dati (dischi virtuali), facilmente realizzabile, ad esempio in ambito KVM, con gli appositi comandi.

Anche per il mondo "fisico" si sono moltiplicati gli strumenti per una sicura migrazione p2v (physical to virtual).

Nuove pagine della storia della virtualizzazione stanno per essere scritte e si intuisce facilmente che gli "strumenti" per giocare a questo gioco non mancheranno, anzi, ma la cosa più importante per l'Enterprise è affidarsi ad "artisti" di provata esperienza che sappiano orchestrare uno spettacolo (performance)... di sicuro successo!

Firmato - Dott. Alessandro Garbelli

comunicazione efficace

Buongiorno a tutti,

oggi parliamo di comunicazione o meglio di comunicazione efficace.

Perché? Direte.

Enterprise OSS è un progetto, un’associazione, un gruppo di professionisti dell’open source.

Infatti, e non c’è modo migliore di parlare di questi temi in modo comprensibile ed efficace.

Bene, proviamo a fare un esempio.

Devo comunicare ad un pubblico molto targettizzato, alla mia nicchia, coloro che potranno capirmi e apprezzare cosa sono capace di fare, per esempio un cluster di storage per VMware con prodotti open source.

Come faccio?

Non posso certo calarmi nei panni di Alberto Angela e raccontarvi di come VMware è un virtualizzatore, in sostanza un software che costruisce sull’hardware dell’hardware “finto” o meglio virtuale appunto, ma altrettanto efficace.

Così efficace che riesce a gestire l’hardware vero per renderlo molto più produttivo.

O meglio posso farlo se il mio interlocutore è il mio amico d’infanzia con cui facevo a sportellate sotto canestro in qualche playground di periferia.

Ma se il mio interlocutore è un IT manager pluridecorato con la passione per il dettaglio maniacale e per le prestazioni misurate con metriche da server della NASA è evidente che non coglierò nel segno, che il mio racconto sarà troppo superficiale.

Quindi in primis devo capire a chi mi rivolgerò, in secondo luogo devo capire cosa voglio comunicare.

 

Voglio divulgare la conoscenza a piene mani senza ottenere nulla in cambio?

O voglio regalare conoscenza al fine di rendere più consapevoli i miei colleghi e trasformarli clienti, collaboratori, soci, complici? Qual è il mio obiettivo?

Questo è un fattore determinante che devo sapere, altrimenti rischio di comunicare in modo poco efficace.

Voi come invitereste ad uscire per la prima volta la vostra fiamma del momento, la persona che più desiderate al mondo stupire e conquistare, il vostro pensiero fisso dell’ultimo periodo?

Studiate una strategia: semplicità, seduzione, "tira e molla".. o prendete un gratta e vinci e sperate?

Capite cosa voglio dirvi?

Inoltre devo scegliere le parole giuste, il filo conduttore corretto, lo storytelling più adatto al mio interlocutore.

 

Perché vi racconto queste cose?

Altro esempio.

Ho in mente di diffondere strumenti software che ho creato per diagnosticare puntualmente cosa sta facendo il mio server, o i miei server, nodi, cluster, è lo stesso.

So per esperienza che i miei colleghi apprezzeranno uno strumento che a colpo d’occhio offre una panoramica della situazione, senza perdersi in articolati schemi sullo schermo, magari ottenibili solo a seguito di una complessa serie di click chirurgici su altrettanti menù a tendina o peggio di comandi scritti a mano in qualche shell (mi concederanno una licenza poetica i puristi della linea di comando).

Devo sviscerare qual è il valore aggiunto che questi strumenti possono offrire al mio cliente, devo descriverli raccontando quello che possono dare, che problemi possono risolvere, a nessuno interesserà una disanima tecnica sterile.

 

In sostanza cosa vi ho voluto raccontare in queste poche righe?

Che se raccontate una storia su quello che siete in grado di fare e lo fate pensando a chi vi leggerà e a come potrà essere utile quello che comunicate per Lui/Lei allora avrete creato una comunicazione efficace.

Giunti a questo punto dovrete solo scegliere gli strumenti adatti a comunicare.. ma questa è un’altra storia, un altro articolo, un altro racconto.

Intanto date un’occhiata ai due progetti linkati qui sotto e di cui vi ho parlato poco fa, chissà mai che sia stato un racconto efficace..

Alla settimana prossima.


Storage Open Source per VMware


Metriche e Tools Proxmox

wink enterprise oss

Upgrade, definizione

1. Incremento di un sistema di elaborazione con l’aggiunta di nuovi elementi hardware o software che ne migliorano le prestazioni

2. Aggiornamento di un prodotto software che ne migliora le prestazioni

Etimologia: ← voce ingl.; propr. ‘crescita, miglioramento’.

Garzanti Linguistica

Quando farlo?

Ecco la definizione di questo termine inglese: upgrade in ambito informatico, come al solito questa lingua globale ci permette di esprimere un intero concetto con una sola parola.

Né il termine anglosassone né la descrizione dello stesso però, ci rivelano quanto sia critica questa operazione.

Tutti noi a fronte di un miglioramento previsto, siamo pronti a mettere mano al sistema informativo, anzi molto spesso auspichiamo un upgrade

Ma ci sono upgrade che si possono fare e upgrade che non si possono fare

“Ho lavorato per anni nei ced di diverse piccole e medie imprese e ogni volta che si rendeva necessario fare un upgrade dei loro sistemi si ripresentavano puntali i soliti problemi

1. Di spazio: “l’armadio rack è pieno", oppure “non abbiamo l’armadio rack e non c’è spazio per mettere i nuovi server”, “il condizionatore non può reggere l’aggiunta di un nuovo hardware”, "l’ups è sottodimensionato per aggiungere altre macchine” etc..

2. Di soldi: “non possiamo permetterci di acquistare dei nuovi dischi per ampliare lo storage”

3. Di tempo: “come facciamo a fermare l’infrastruttura per tutto quel tempo? Noi dobbiamo lavorare, non possiamo permetterci una migrazione dei dati”

Spesso si tende a sacrificare un miglioramento certo della produzione a causa di problemi di vario genere, il cui “ammortamento” potrebbe essere rapido grazie proprio all’implementazione dell’upgrade a cui si rinuncia.

L’avvento della virtualizzazione ha favorito il superamento di alcuni dei problemi suddetti, ma in Enterprise OSS ci è capitato di incontrare uno scenario ancora differente.

Ci contattano realtà che chiedono una consulenza per fare degli upgrade ai loro sistemi, ma hanno l’esigenza di non stravolgere il loro sistema informativo, tipicamente realizzato con prodotti closed, come VMware o Hyper-V.

Un caso tipico è quello in cui si debbano aggiungere nodi di calcolo e farli comunicare sugli stessi dati ai quali puntano i nodi di calcolo già esistenti.

Schema di sistema informativo tradizionale, con sole macchine fisiche

da fisico a virtuale

In questi casi la divisione projects si occupa di integrare nell’infrastruttura esistente una soluzione open source realizzando un vero e proprio sistema ibrido, al fine di realizzare un upgrade molto vantaggioso.

Il primo vantaggio è naturalmente il conseguimento dell’obiettivo: l’incremento della potenza di calcolo, principale richiesta del cliente.

Il secondo vantaggio è il risparmio in termini di licenze che una soluzione simile offre: si può continuare a mantenere i nodi preesistenti e “dare gas” dal punto di vista computazionale, senza sobbarcarsi un ulteriore esborso di denaro, atto a soddisfare politiche di licensing spesso opprimenti.

Il terzo vantaggio è la flessibilità: permettere a due diversi cluster di puntare allo stesso storage, tipicamente Ceph (in HA su un minimo di 3 nodi) è un grosso passo in avanti, che potrà permettere in futuro di alleggerire i costi anche nell’eventualità che lo storage vada ampliato.

cluster ibrido

Insomma, senza stravolgere sistemi già esistenti, si possono fare cose egregie, far coesistere e soprattutto interagire con successo il mondo closed con il mondo open.

Anche perché come gli addetti ai lavori già sanno, grazie alla sua grande diffusione e all’imminente entrata in gioco sulla grande rete dell’universo IoT, da qualche tempo il mondo open e quello closed hanno iniziato a strizzarsi un occhio, o forse due.

© 2022 All rights reserved