Re: backup KVM
In data sabato 06 novembre 2010 10:54:05, dea ha scritto:
> > a me è sempre piaciuto il fai da te... avendone tempo e conoscenze,
> > più tempo che conoscenze, le seconde si trovano, il primo se non c'è....
>
> Mancano entrambi, ma il primo si può ritagliare da altro, le seconde piano
> piano si trovano :)
concordo... ma è più semplice trovare le conoscenze che il tempo... :S
> > una soluzione elegante (secondo il mio parere) a tutto questo?
> >
> > semplicemente non concatenare i singoli file (a questo punto anche
> > compressi), ma indirizzarli semplicemente in un contenitore tar,
> > risultato, ancora un unico file, compresso in quanto compressi i
> > contenuti, in cui anche nel full si ottiene un nuovo full
> > semplicemente sostituendo i file che cambiano...
>
> Io pensavo semplicemente (ovviamente soluzione meno "fine") di comprimere
> il full o i diff dopo il concatenamento, prima dello stoccaggio. Tanto non
> devono più essere analizzati (se non per il ripristino) quello che serve
> avere è il file di hash.
certo, è stato il mio primo pensiero, ma il problema è che bisogna avere
abbastanza spazio per tenerci l'immagine non compressa fino alla fine delle
concatenazioni, e successivamente lo spazio aggiuntivo per poter tenere anche
il file compresso. solo al termine si può eliminare il file non compresso.
naturalmente per il restore bisogna eseguire i passaggi inversi, quindi
comunque un elevato spazio, perché devi decomprimere il full, e almeno un diff
alla volta che può essere rimosso dopo l'integrazione con il full.
> Comprimere i contenuti uno per uno (a blocco singolo) piuttosto che
> l'insieme offre minore compressione... specialmente se i blocchi si
> ripetono. Non è più semplice aggiungere il layer di compressione alla fine
> ? Tanto mica devi accedere a quei dati (se non per il recovery), sbaglio ?
non credo che ci sia una grandissima differenza di compressione, naturalmente
dipende da quanto devono essere grossi i singoli blocchi. se per esempio si
fanno blocchi di 0,5 GB probabilmente la compressione non è poi così
diversa... se invece vuoi una suddivisione più fine dei blocchi, potrebbe anche
essere leggermente maggiore... ma non credo di tanto...
ora non conosco tutti i sistemi di compressione, ma se si usa per esempio gzip
non credo che comprima parti diverse dell'immagine con lo stesso contenuto
come se fosse un un unico blocco (nel qual caso avreti ragione tu che si
otterrebbe una minore compressione con le immagini separate).
in compenso posso affermare (dopo lettura del man) che è possibile iniziare la
lettura da un punto diverso dal primo, usando un'indicazione di quanto deve
essere grande il blocco che legge prima del trasferimento (e questo mi fa
pensare a possibili problemi di memoria se si desiderano fare spostamenti di
grosse parti)e successivamente di quanti blocchi di questa dimensione deve
saltare prima di cominciare a leggere... quindi tutti paramentri che possono
essere semplicemente inseriti nell'iterazione del loop.
Byez
--
Gollum 1
Tessssssoro, dov'é il mio tesssssssoro...
Reply to: