Sono circondato da persone che si sentono al sicuro perché fanno il backup!
Sono altrettanto circondato da disperati che hanno perso qualcosa ..

Il backup è una cosa complessa, la complessità è anche maggiore in quanto la quantità di dati che oggi un sistema alloca è normalmente piuttosto considerevole.
Poi montagne di tool che vendono il backup come una cosa semplicissima generano false sicurezze.

Esiste la convinzione che con un software, un disco esterno, un Nas si risolva tutto, ma purtroppo le sorprese si avranno proprio al momento del ripristino.
Questo documento vuole spiegare in modo sintetico come gestire correttamente un backup.

Cosa si vuole ottenere:

Una copia dei propri dati con una frequenza in relazione alla loro importanza.
Una copia che sia ripristinabile nel minor tempo possibile eventualmente in modo parziale.
Una copia che metta al riparo da furto, distruzione da virus, anomalia di sistema o errore umano (cancellazione accidentale), incendio, problemi hardware.
Una copia che ricostruisca una macchina complessa con drivers, programmi (magari senza più i CD originari) ecc.
Una copia il più automatizzata possibile e con il backup più veloce possibile.
Una copia che sia al sicuro, che ciascuno non trovi in un punto unico dati riservati di altri.

Con tante variabili evidentemente non esiste la logica 'esatta per definizione' ma tante diverse strategie in rapporto alle situazioni.
Ciascuno deve valutare le proprie criticità, quindi consiglio dapprima una 'autocritica' per ogni macchina o categoria di macchina casalinga o aziendale (a cominciare dai server), per situazioni complesse appoggiarsi ad un professionista è quasi imprescindibile.

Come siamo messi su ciascuna macchina?
Cominciamo con il domandarci se in questo momento ciascun Computer si rompesse quale sarebbe la situazione?
La seconda domanda è, e se in questo momento mi rubassero il disco esterno che dati riservati andrebbero in giro?
Se mi entrassero in ufficio e mi rubassero PC e disco esterno, cosa mi rimarrebbe?
E se mi fregassero il portatile?
L'ultima volta che ho detto 'che sfiga', sono sicuro di aver fatto tutto quanto in mio potere per evitare il problema?

Sottovalutazioni.
La classica frase che sento è 'ma qui non ho cose importanti', allora cominciamo con il vedere le cose che gli utenti spesso sottovalutano, le proprie email e relativi contatti, i bookmark, le foto di famiglia, documenti burocratici e ricevute di home banking, password salvate,  configurazioni di dispositivi ADSL, musica e programmi acquistati non ricaricabili su una macchina nuova (mancano i dischi o il DRM).
Per non parlare degli utenti che copiano fuori i files senza pensare che i files spesso più importanti, quelli del proprio database server, sono di norma lockati e quindi non vengono copiati da un semplice comando esterno.
Poi ci sono i server di posta, i server Web, i DNS, i router verso l'esterno, cosa comporta un fermo macchina?

'Ma io faccio il backup ogni giorno!'.
Quante volte me lo sono sentito dire, capirete da quanto scritto sotto che molto dipende da 'cosa' ma soprattutto dal 'come'.
Faccio un esempio, Tesi di Laurea, per sbaglio in uno dei tanti copia incolla cancello trenta pagine senza accorgermene.
Me ne accorgerò alla rilettura finale (fra un mese).
Dove trovo la versione di un mese fa?

Ora che vi ho fatto un po di 'terrorismo psicologico' cominciamo a vedere le soluzioni.
Tanto per cominciare il backup deve finire su un supporto, quindi ci vuole il supporto adeguato, inutile dire che enormi dischi esterni possono fare al caso nostro, oltretutto sono dispositivi veloci che costano poco.
Ricordo che una copia 'esterna' una volta ogni tanto è imprescindibile altrimenti nulla vi difende dal furto (molto frequente nei portatili) o incendio, per cui se vi affidate a dischi esterni almeno alternatene due, uno in sede uno fuori.
Il problema è semmai come trasferire il tutto nel backup in tempo utile, in pratica se avete un HD USB e dovete passare 2 TB occorrono ore (e i backup si fanno possibilmente ad attività ferma).
In situazioni piccole casalinghe per backup frequenti possiamo passare per la rete e incrociare due macchine (una tiene il backup dell'altra).
Se i dati sono pochi possiamo masterizzare un DVD magari Dual Layer, meglio ancora un Blue Ray.
Ci sono pure delle unità esterne removibili tipo Rev Iomega che possono essere interessanti.
Anche i dischi estraibili non sono male o quelli connessi ad alta velocità con interfacce External SATA.
Se avete davvero tanti dati ancora oggi i nastri veloci si rivelano una soluzione quasi imprescindibile.
Ci sono i NAS, veri e propri server di backup professionali, ve ne potete fare uno Linux altrimenti sono costosi ma comunque non sono mai facili da configurare.
Con una ADSL molto veloce o una VPN verso un altra sede si può anche pensare ad uno storage remoto (ma occorre fidarsi di chi ti tiene i dati, come li tiene e come li userà).

Non perdiamo tempo per cose inutili, già sono tante quelle utili.
Cerchiamo quindi di isolare su partizioni separate e non backuppare files di paging, enormi avi che non cambiano mai presenti su supporti esterni, immagini iso da masterizzare e comunque tutto ciò che è facilmente ricostruibile, inutile o di scarsa importanza.

I tempi non sono da sottovalutare, in una rete complessa possono volerci ore a spostare tutto, se poi pensate di mettere tutto su un unico disco esterno e lo fate lavorare a pieno carico per otto ore al giorno, aspettatevi che duri poco.
Ci sono vecchi programmi che aprono tanti files, fare un backup a programma attivo implica che se il programma trova qualcuno dei files lockato, lo salta o lo processa in seguito, ma il programma a quel punto dopo il restore avrà singoli file disallineati come sequenza operativa, con conseguenze imprevedibili.

La soluzione può essere la più varia.
Un programma professionale per NAS che fa girare un client sulla macchina e elabora in locale le differenze per poi passare solo quelle al server di backup (sono piuttosto complessi da impostare ma sono veloci, in ambito Open Source abbiamo Bacula o Amanda).
Hanno l'evidente pregio di limitare notevolmente il trasferimento sulla rete, in particolare per backup differenziali ma richiedono un lavoro non indifferente e sono molto dipendenti dal prodotto utilizzato.
Un PC molto capace al quale tutti conferiscono i dati periodicamente, che fa da collettore di backup dei dati aziendali con una unità esterna veloce direttamente collegata con cui fa il backup esterno, è la soluzione spesso preferibile.

Ricostruzione di una macchina complessa.
Ricostruire una macchina complessa, un server piuttosto che un desktop di sviluppo può non essere una passeggiata, per queste situazioni in caso di grossi stavolgimenti (installazione di programmi importanti, nuovo S.O o altro), sono ottimi i programmi che clonano il disco, Acronis True Image, Ghost, o l'Open Source Clonezilla ad esempio.
L'unico problema che spesso non permettono (con Window in particolare), un rispristino su macchine troppo diverse dal punto di vista hardware.
Se volete essere veloci nel ripristino nulla è efficace come le virtualizzazioni, copiate i files della macchina virtuale su un altro PC e il sistema è su, di gran lunga il sistema più rapido, i backup si fanno con gli 'Snapshot' foto del sistema periodici.
Per le macchine virtuali ci sono ottimi programmi anche Open Source o gratuiti, Xen, Virtualbox, KVM, VmWare.
Per rendere ricostruibili vecchi PC essenziali, ad esempio con Win98, penso non esistano quasi alternative.
In tutti i casi (fatta salvo la virtualizzazione) sono sistemi che spesso necessitano di backup a macchina ferma anche se sono abbastanza veloci.
Il rispristino è veloce e spesso non richiede grandi interventi, sono l'ideale per copie totali del sistema, meno per copie parziali.

Copia della massa di dati.
Backup periodico dei dati utili, viene fatto di norma con comandi anche semplici xcopy sotto windows rsync cp tar o altro sotto Linux, oppure con programmi grafici più user frendly come CobianBackup sotto Windows o LukyBackup sotto Linux, si usa lavorare per backup incrementali/differenziali (di solito ripartendo ad inizio settimana con alternanza pari / dispari).
Chi può lo fa su un unità esterna e/o nastro removibile.
Per sua natura è velocissimo ed è quello che si fa con grande frequenza, quasi sempre differenziale.
Si presta a una gestione giornaliera ma va configurato con strategie tipo FiFo (in pratica si tengono le differenze di una settimana perdendo i dati più vecchi).
Ad esempio di un file di videoscrittura modificato ogni giorno avete in copia una versione per ogni data.
Sotto MAC esiste una Time Machine che usa una logica già impostata (ma dovete avere un gran disco).
Con backup differenziali la ricostruzione è scomoda per cui conviente ripartire con un backup completo ogni settimana.
Se usate uno storage unico per i dati del vostro PC, questi programmi vengono attivati e configurati su ciascuna macchina che li sposta sul BackupServer.
Di norma sono backup che scattano ad ora di pranzo o a fine giornata.

Copia del database.
Ogni database server ha un sistema di copia interno piuttosto sofisticato, potete fare in modo che salvi su un file che poi verrà trattato dal backup dati analogamente agli altri.

Files particolarmente importanti o ad uso condiviso.
Vi è poi un altro tipo di backup per uno o più essenziali a sostituzione frequente (es. la tesi di uno studente o il sorgente di un programma o un importante file di tabellone elettronico aggiornato giornalmente).
Ci sono varie tecniche, se il file si chiama Pippo prima di ogni sessione di lavoro lo copiamo in Pippo001, Pippo002 ecc. continuando a lavorare su Pippo che conterrà sempre la versione ultima.
Personalmente prima di lavorare sui sorgenti creo una directory old001, old002 ecc. con la copia dei files che mi interessano.
Esistono anche sistemi che automatizzano il procedimento generando l'history delle modifiche (in particolare per i sorgenti dei programmi).
Io uso poco gli automatismi perché sono piuttosto rigoroso e preferisco fare le cose in modo semplice. 

Concludendo
La sfiga esiste, ma nella mia vita da informatico ho visto in più del 90% dei casi perdite di dati per sottovalutazione.
Di dischi rigidi rotti ho tapezzato la stanza, in certi posti una volta a settimana vi vengono a chiedere dati cancellati per sbaglio.
Non si contano gli utenti Home che hanno lasciato scadere l'antivirus senza accorgersene per poi impestare la macchina.
Persone che pagano cifre per ricuperare qualche centinaia di mega di foto cancellate per sbaglio o dimenticate su una chiavetta persa o in lavatrice 'pullulano'.
Avete fatto tutto come si deve? Ogni tanto rifatevi le domande che ho scritto sopra nel 'Come siamo messi su ciascuna macchina?'.
Una volta al mese scegliete un file a caso ed andatelo a ripristinare, gli automatismi sono belli ma cerchiamo di prevenire problemi alle coronarie, e scoprire per tempo se funzionano ancora.
E nelle copie immagine attenti a non confondere l'origine con la destinazione...

E le aziende che non ci hanno mai pensato? ... di norma al primo furto hanno chiuso oppure hanno perso una montagna di soldi, tanto poi la motivazione è sempre quella, 'che sfiga'.