Backup a caldo per soluzioni di DR di sistemi Linux

Nel corso del progetto DSC Vodafone, il nostro gruppo di lavoro si è trovato a dover cercare una soluzione a basso impatto economico per effettuare a caldo backup DR di sistemi Linux.
Dopo varie ricerche la soluzione adottata è stata quella di MondoRescue (http://www.mondorescue.org/), sw opensource che consente appunto, previa installazione sul sistema oggetto di backup, la creazione di file ISO “bootabili” per il ripristino completo del sistema in caso di disastro, anche su sistemi HW differenti (molto utile quindi anche per istallazione “in batteria”).

L’installazione del software nell’ambiente testato (RHEL6.5) prevede il download dei seguenti pacchetti:

  • genisoimage-1.1.9-12.el6.x86_64
  • afio-2.5-1.rhel6.x86_64
  • mindi-2.1.7-1.rhel6.x86_64
  • buffer-1.19-4.rhel6.x86_64
  • mindi-busybox-1.18.5-3.rhel6.x86_64
  • mondo-3.0.4-1.rhel6.x86_64

Ovviamente le release dei packages ed a volte il nome degli stessi, può cambiare in base alla distro o del periodo di installazione.

Il comando utilizzato nel nostro caso è stato il seguente:
# mondoarchive -i -d /workarea/mondo -E “/workarea|/opt/adc/adc/cdr|/tmp|/var/tmp” -s 8500m -T /workarea/mondo/tmp -S /workarea/mondo/tmp -OV -p `uname -n`_`date +%Y-%m-%d`

Si rimanda al man per i dettagli delle opzioni possibili ed approfondimento in base alla proprie esigenze; un accorgimento utile è quello di badare allo spazio disponibile nel FS di destinazione ISO e quello temporaneo.

I test di recovery del sistema sono stati eseguiti montando la ISO precedentemente creata dal “Virtual Drives” della Java modorescueIRC di ILO.

Una volta avviata la ISO è possibile scegliere se eseguire il recovery in modalità automatica (nuke) o interattiva (interactive).
Questa ultima possibilità da modo di decidere cosa ripristinare e cosa no.

Inoltre è possibile eseguire una comparazione tra il backup a nostra disposizione e il sistema che ci accingiamo a sovrascrivere (compare).

Al termine della procedura avremo il nostro sistema ripristinato al momento del backup.

Essendo la procedura di backup eseguibile a caldo, è possibile ovviamente schedulare in crontab la creazione della iso, per mantenere il backup aggiornato e consistente.

Autore: Filiberto Mannelli

Tecnologie di sviluppo WEB

aspQuesto post è il primo di una serie di approfondimenti sulle tecnologie di sviluppo WEB e il mondo della programmazione in ambiente Microsoft .NET.

Oggi iniziamo con un’analisi introduttiva di ASP.NET MVC che è la soluzione Microsoft per la realizzazione di applicativi WEB di nuova generazione parte integrante del noto Framework ASP.NET.

MVC Design Pattern

Lo scopo principale di MVC è quello di fornire strumenti per lo sviluppo di applicazioni WEB che rendano semplice e veloce l’adozione dei principi della progettazione del software, da cui il nome del framework stesso. MVC sta infatti per Model-View-Controller il nome del famoso pattern architetturale nato negli anni 80 per la realizzazione delle interfacce grafiche.

 

model

 Il Model è la parte che mantiene la logica dei dati ovvero che rappresenta i concetti del dominio in entità “maneggiabili” dal resto dell’applicazione. In alcune implementazioni si occupa anche del recupero e memorizzazione dei dati stessi da una fonte esterna (e.g. database).La View è la parte dell’applicazione che mantiene la logica per la visualizzazione dei dati presenti nel Model. In alcune implementazioni si occupa anche della validazione che però deve rimanere di stretta natura sintattica e comunque priva di logiche di business.

Il Controller è la parte dell’applicazione che gestisce l’input utente: comanda il flusso di esecuzione, legge i dati dalla View e l’invia al Modello. Mantiene le entità del dominio coerenti fra loro ed è qui che risiede la maggior parte della logica e delle regole di business dell’applicazione.

 

La separazione in layer di MVC aiuta lo sviluppatore a gestire la complessità delle applicazioni perché permette di focalizzarsi su un aspetto alla volta incentivando allo stesso tempo la suddivisione dello sviluppo in più gruppi di lavoro paralleli.

 ASP.NET MVC

Fin dall’apertura anche del più semplice template (Empty Site) di Visual Studio (l’IDE di sviluppo ufficiale Microsoft) per la tipologia di progetti ASP.NET MVC si ritrovano i concetti finora esposti. Il progetto è infatti suddiviso fondamentalmente in tre cartelle Model, View e Controller. In ognuna delle cartelle andranno inseriti i relativi file: classi C# (o VB.NET) per Model e Controller, pagine CSHTML per la View.

Per quanto detto quindi, prendendo in considerazione un piccolo sistema di gestione di una biblioteca (questo esempio ci accompagnerà anche nei prossimi approfondimenti) si potrebbe avere:

  • La classe Book del Model con attributi ISBN, Name, Author etc.
  • La classe RentController con i metodi (dette Action) per il recupero dei libri dati in prestito, prestabili e con data resa scaduta, etc.
  • Le pagine CSHTML per la visualizzazione delle liste di entità Book recuperate dalle Action del controller

Nei prossimi post approfondiremo con maggiore dettaglio gli step per la realizzazione di questa micro biblioteca 2.0: la sintassi Razor delle View, la decorazione per la validazione del modello e altro ancora.

Autore: Alessandro D’Angiò

Fault Tolerant Distributed File System

xfs

(Fault Tolerant Distributed File System)

 

A differenza dei Network File System comuni, XtreemFS è un file system distibuito, fault-tolerant, open source che funziona su più server e grazie allo striping è possibile accedere ai dati con la larghezza di banda aggregata di più server di archiviazione.

Grazie ad esso è possibile costruirsi un proprio storage utilizzandoxfs2 hardware di uso comune, con la possibilità di gestire lo spazio in base alle proprie disponibilità,  con la sicurezza di tollerare guasti hardware a costi decisamente contenuti (opensource) rispetto a soluzioni all-in-one (SAN e NAS) che generalmente dipendono dal fornitore hardware.

XtreemFS utilizza il concetto di file system basato su oggetti: I Metadata (nome file, owner e struttura directory) vengono memorizzati su un server (MRC), il contenuto dei file viene diviso in chunks di dimensione fissa che chiameremo “oggetti”, gli oggetti vengono memorizzati su un server di archiviazione (OSD). Questa separazione tra metadata e contenuto dei file permette di scalare la capacità di memorizzazione e la larghezza di banda, se vogliamo aggiungere o rimuovere altri server di memoria (OSD).

Il servizio directory server (DIR) è il registro centrale che i servizi di XtreemFS utilizzano per trovare gli altri nodi. E’ anche usato dai client per trovare l’MRC che gestirà il volume montato dagli utenti.

MRC e DIR memorizzano tutti i dati (metadata) su un database integrato e ottimizzato per lo storage dei metadata, BABUDB, mentre OSD memorizza i suoi dati in forma di file e directory su file system locale OSD. Tutti gli oggetti si trovano nella directory specificata nel file di configurazione.

Come si evince dall’immagine accanto, i tre server condivideranno un XtreemFS, il quale sarà sommato a quelli  condivisi dagli altri sistemi, per un totale (in questo caso) di 150Gb. Il client accederà a 150Gb di risorse.

La scalabilità di XtreemFS permette velocemente l’aggiunta o la rimozione di altri “storage server”e grazie allo striping dei file su più server di archiviazione,  le operazioni di READ/WRITE vengono eseguite in parallelo sugli storage server, sfruttando tutta la banda, simile a RAID 0.

Il prodotto si può scaricare gratuitamente al seguente URL: http://www.xtreemfs.org/download.php?t=source

L’installazione del pacchetto client è necessaria per accedere a Xtreemfs da un sistema remoto .

Autori: Domenico Princi, Luca Di Dedda, Octavian Petrascu

Formazione Linux Essentials gratuita

L’azienda organizza corsi che prendono spunto dal Linux essentials di LPI, rivolti a risorse con poca esperienza su linux . Chi fosse interessato è pregato di inviare cv e richiesta di adesione ad info@converger.it.

Office Guard e il salvataggio dati

Tra le soluzioni che utilizziamo per fornire ai nostri clienti il miglior prodotto per il salvaggio dati c’è Office Guard.
Office Guard esegue quotidianamente operazioni automatiche di controllo e salvataggio dati. Il Suo compito è rilevare, controllare, potenziali attacchi esterni, rimuovere virus, sorveglia file e cartelle, esegue copie di backup e ripristino di file di configurazione, dati e impostazioni.
La comodità di avere un’immagine del proprio disco è indubbia, qualunque cosa noi facciamo avremo sempre una sorta di paracadute pronta a ripristinare il sistema in pochi minuti esattamente
come era nel momento in cui abbiamo scelto di effettuare l’immagine.
E’ possibile recuperare sia file persi o inaccessibili in seguito ad un crash del sistema operativo o dischi danneggiati e copiarli in un luogo più sicuro.

Proteggere i tuoi dati significa proteggere il tuo lavoro e il tuo business

Converger studia, disegna ed implementa piattaforme di backup centralizzate che consentono di integrarsi con la maggior parte di sistemi operativi come: Windows 2000/XP/2003/2008/Vista; Novell NetWare/OES; HP-UX, HP MPE/iX; Sun Solaris; Linux RedHat/SUSE/Debian, United Linux; IBM AIX; SGI IRIX; SNI SINIX; SCO OpenServer, SCO Unixware; HPTru64 UNIX; OpenVMS.Inoltre attraverso delle opportune integrazioni è possibile salvare i dati delle seguenti applicazioni senza effettuare nessun fermo applicativo: Oracle, Informix, Sybase, MS SQL Server, MS SQL, MS Exchange, SAP, SAP DB/MaxDB, BaanIV, Lotus Notes, Solid Database, DB2, Full virtual platform integration with VMware ESX Server and VMware Consolidated Backup, VM-level support for Citrix XenServer, HP Integrity Virtual Machine, MS Virtual Server, MS Windows, 2008 Hyper-VBackup device servers – with robotic control (for control of tape drives and tape library systems, including shared tape libraries).

Le piattaforme di backup si integrano con le più diffuse librerie di memorizzazione.

I dati di backup possono essere trasmessi dal client al server sia in chiaro che in modalità crittografata.

Codice in materia di protezione dei dati personali
Art.18. Sono impartite istruzioni organizzative e tecniche che prevedono il salvataggio dei dati con frequenza almeno settimanale.
Art. 19.5. la descrizione dei criteri e delle modalità per il ripristino della disponibilità dei dati in seguito a distruzione o danneggiamento di cui al successivo punto 23;
Art. 23. Sono adottate idonee misure per garantire il ripristino dell’accesso ai dati in caso di danneggiamento degli stessi o degli strumenti elettronici, in tempi certi compatibili con i diritti degli interessati e non superiori a sette giorni.

“Il backup, copia di sicurezza o copia di riserva in informatica indicano un’operazione atta a prevenire la perdita totale dei dati archiviati nella memoria di massa dei computer siano essi stazione di lavoro o server.L’attività di backup è un aspetto fondamentale della gestione di un computer: in caso di guasti, manomissioni, furti, ecc., ci si assicura che esista una copia dei dati, pertanto l’esecuzione del backup è quasi sempre automatica e svolta normalmente con una periodicità stabilità.

«Gli ingegneri di Google Labs hanno pubblicato un paper intitolato Failure Trends in a Large Disk Drive Population (tendenze al guasto in un”ampia “popolazione” di dischi rigidi), frutto di uno studio condotto su circa 100.000 dischi rigidi in più di 5 anni d’uso presso l’infrastruttura del colosso della ricerca. Dai dati raccolti da Google emergono alcuni aspetti molto interessanti e in parte inattesi.Secondo recenti stime più del 90% di tutte le nuove informazioni prodotte nel mondo viene conservato su media magnetici, gran parte su dischi rigidi.»

Server and Storage Virtualization

Da una ricerca effettuata da Gartner sulla virtualizzazione emerge che nelle aziende oltre l’80% delle imprese ha programmi e progetti di virtualizzazione nel 2010.
Il motivo è semplice: «La virtualizzazione guida l’efficienza IT da ogni angolo, dal disegno del data center al miglioramento delle piataforme alla modernizzazione delle applicazioni e della infrastruttura, come pure ai nuovi modelli di distribuzione come l’Infrastructure as a Service e il cloud computing»

Non ci sono sensazionali rivelazioni: VMware è leader indiscusso a livello di hypervisor, lontano e irraggiungibile da qualsiasi competitor!
Per quanto riguarda i due maggiori avversari, Microsoft è l’unica società considerata “challenger”, mentre Citrix è l’unica nei “visionaries”.

PERCHÈ VIRTUALIZZARE?

  • Riduzione del Total Cost
 of Ownership
  • Aumento della sicurezza
  • Aumento dell’efficienza
  • Massima scalabilità
  • Centralizzazione della gestione
  • Consolidamento dei server

Consolidamento server mediante la virtualizzazione

Riduzione dei requisiti hardware con un rapporto di 10:1 grazie al consolidamento server. Meno hardware significa ridurre i costi operativi e di capitale fino al 50% e tagliare i costi per l’energia dell’80%. In media i clienti risparmiano $ 3.000 all’anno con la virtualizzazione di ogni singolo carico di lavoro.
La virtualizzazione accelera i tempi di provisioning del 50-70% e centralizza la gestione delle macchine virtuali. Le prestazioni sono costantemente monitorate ed è possibile garantire agli utenti i massimi livelli di prestazioni e disponibilità.

Vulnerability Assessment and Mitigation

Mettere in sicurezza il tuo IT è una priorità: non lasciare a nessuno la possibilità di appropriarsi dei tuoi dati!
La metodologia di Vulnerability Assessment and Mitigation (VAM) consiste di un processo volto a valutare l’efficacia dei sistemi di sicurezza ed a valutarne il livello di sicurezza.
Lo scopo di questa ricerca è quello di trovare le falle di quello specifico sistema, per poterlo così migliorare e prevenire eventuali attacchi basati su quelle vulnerabilità.
L’utilizzo del VAM si rende necessario più volte durante l’arco di un anno, in quanto la tecnologia progredisce in fretta e con essa anche gli strumenti per attaccare un sistema, che potrebbero quindi avvalersi di nuove vulnerabilità eventualmente messe in luce dal progresso tecnologico e strategico.

Il processo di VAM è composto da quattro aree (Auditing, Assessment, Analisys e Mitigation) e viene eseguito tramite metodologie e tool open source leader come:

  • OpenVAS
  • Nmap
  • Wireshark
  • BackTrack

Per ogni sistema/applicazione viene prodotto un report:

  • sulle vulnerabilità trovate;
  • sulle contromisure 
suggerite;
  • sulle contromisure 
adottate;
  • con la fotografia dei 
file critici.

Nel processo di analisi vegono presi in esame tre livelli:
RETE IP: L’analisi delle vulnerabilità verterà su reti, sistemi, dati o applicazioni che possano essere attaccate tramite un collegamento IP tra il malintenzionato e le strutture stesse. La simulazione prenderà quindi in esame sia un’offensiva esterna, tipicamente di un hacker attraverso Internet (Externat Network Security Auditing oppure Penetration Test), sia una interna, nella fattispecie una presenza attiva internamente alla struttura (Internal Network Security Auditing);
SISTEMI: In questo secondo caso ad essere obbiettivo del test saranno i sistemi dell’Infrastruttura IT considerati determinanti dall’azienda. Ogni singolo aspetto del Sistema verrà analizzato alla ricerca di bug, errori, incongruenze o manomissioni ad opera di terzi. Un’altra ricerca effettuerà una coppia di ‘foto’ del Sistema in tempi diversi, ottenendo così due checksum, che verranno paragonati tra loro, nel tentativo di scorgere eventuali differenze. Ciò che si otterrà alla fine sarà un hardening del Sistema;
DATABASE: Al terzo livello si trovano i Database (Oracle, SQL Server, Sybase SQL Server…). Queste banche dati verranno analizzate automaticamente da strumenti in grado di rilevare eventuali debolezze nel campo della sicurezza. È noto come un DataBase contenga una gran mole di informazioni critiche ed indispensabili per un’azienda e data l’enorme complessità venutasi a creare durante la loro organizzazione, si vengono facilmente a creare vulnerabilità comodamente sfruttabili da un malintenzionato, molto più di quanto possa accadere con le falle presenti nei Sistemi Operativi.