Visualizza Versione Completa : Una curiosità al cesso
Stavo dando il meglio di me quando mi è venuto un dubbio:
se io tengo roba su cloud, roba che anche se me la guardano non mi frega un cazzo, ma che mi interessa molto non perdere
come fa il cloud a mantenerla nel tempo e essere sicuro che nessuno di quei X-mila files si corromperà mai o si degraderà in qualche maniera?
ridondanza hardware e software a carico del gestore del cloud.
Quando metti roba su Amazon S3 ad esempio e' replicata come minimo in 3 regioni diverse. Se qualcosa dovesse capitare ai tuoi dati in una di tali regioni, una copia viene immediatamente effettuata usando una delle altre due.
Per maggiore sicurezza mi pare si possa anche selezionare di aumentare il numero di regioni (pagando di piu').
Dropbox etc. e gli altri grandi provider offrono simili garanzie. In generale, ti devi fidare. E io di Amazon mi fido.
Si... in cloud... i famosi server. Sono 3 e si chiamano Magi1:Melchior; Magi2: Balthasar, Magi3:Casper
https://wiki.evageeks.org/images/2/2f/Eoe_magi_display.jpg
Guarda che fastidio mi sono preso... Si capisce che sono OBERATO di lavoro, vero? Merdine!
(il firewall type-666 ... minchia la fantasia...)
Quando metti roba su Amazon S3 ad esempio e' replicata come minimo in 3 regioni diverse. Se qualcosa dovesse capitare ai tuoi dati in una di tali regioni, una copia viene immediatamente effettuata usando una delle altre due.
Per maggiore sicurezza mi pare si possa anche selezionare di aumentare il numero di regioni (pagando di piu').
Dropbox etc. e gli altri grandi provider offrono simili garanzie. In generale, ti devi fidare. E io di Amazon mi fido.
quindi se tipo hanno 3 server, metti un file su uno, si replica sugli altri 2.
poi mettendo che su uno dei server si danneggia... guardano gli altri due che sono ancora interi e li prendono per buoni, rimpiazzando quello corrotto? e se si corrompessero i dati su due server? o se ci fossero solo due server invece che tre? come fa il sistema automaticamente a capire quale versione dei dati ripristinare e quale invece va buttata?
va a culo. siccome non paghi i tuoi dati non valgono un cazzo. corrotti valgono anche meno.
poi mettendo che su uno dei server si danneggia... guardano gli altri due che sono ancora interi e li prendono per buoni, rimpiazzando quello corrotto? e se si corrompessero i dati su due server?
proprio per questo, se vuoi stare piu' sicuro, amazon ti permette di replicare su piu' di 3 server
se vuoi un po' piu' di dettagli: https://www.backblaze.com/blog/cloud-storage-durability/
proprio per questo, se vuoi stare piu' sicuro, amazon ti permette di replicare su piu' di 3 server
se vuoi un po' piu' di dettagli: https://www.backblaze.com/blog/cloud-storage-durability/
carino l'articolo e grazie ing gestionale che mi hai reso comprensibile anche la parte di calcolo statistico.
certo, avere un file diviso su 20 servers è un po' diverso da averlo su 3. ma backblaze non è con amazon mi sa.
ma backblaze non è con amazon mi sa.
no, pero' qualcosina su redundancy etc. la sanno, quell'articolo e' interessante
era per dire che continui a pubblicizzarmi amazon ma con questo articolo mi hai invogliato ad andare da backblaze
era per dire che continui a pubblicizzarmi amazon ma con questo articolo mi hai invogliato ad andare da backblaze
ah no, sicuro. parlavo di amazon perche' uso loro, ma anche backblaze dovrebbe essere molto affidabile
eviterei giusto roba come tresorit/dropbox/etc che sono dei semplici intermediari tra te e amazon
comunque la regola e': 3-2-1
tieni 3 copie dei tuoi dati, di cui 2 in locale, e 1 in remoto (cloud, o casa di tua nonna)
ad esempio io tengo tutti i miei dati importanti su 2 HD replicati + su amazon S3
per le robe meno essenziali tengo solo le copie locali
e quando devi aggiornare tali backup come fai per non perderci una vita?
cioè, metti che hai molte fonti diverse, devi raccogliere i dati da tutti i dispositivi, poi fare le copie sui diversi supporti che hai organizzato, verificando che la roba che hai in più ci sia tutta e quella che hai eliminato perchè inutile venga rimossa anche dai backup
e quando devi aggiornare tali backup come fai per non perderci una vita?
cioè, metti che hai molte fonti diverse, devi raccogliere i dati da tutti i dispositivi, poi fare le copie sui diversi supporti che hai organizzato, verificando che la roba che hai in più ci sia tutta e quella che hai eliminato perchè inutile venga rimossa anche dai backup
ci sono tanti modi per organizzarsi.
per quanto riguarda le copie in locale, e' facile perche' uso robocopy (https://docs.microsoft.com/en-us/windows-server/administration/windows-commands/robocopy), che assicura una copia bit per bit da origine a destinazione. il comando esatto che utilizzo: "robocopy source destination /e /tee /log:robolog.txt /sec /w:1 /r:1 /copyall"
le copie in remoto (amazon S3) le aggiorno meno di frequente, ma in ogni caso.. stessa storia. utilizzando il client amazon, una copia bit per bit viene assicurata tra la tua copia locale e quella remota
c'e' roba piu' sofisticata e anche con interfacce grafiche, ma per me questi 2 comandini bastano e avanzano
- - - Aggiornato - - -
ah, e se hai bisogni piu' specifici, ti consiglio di farti un giro su reddit.com/r/datahoarder
hai mai provato il comando /MIR?
se io volessi usarlo, include /copyall?
e /copyall non dovrebbe includere /sec?
conviene usare /MT? (multithreading)
edit: da https://docs.microsoft.com/en-us/windows-server/administration/windows-commands/robocopy#remarks
sembra che /MIR sia solo /e + /purge, quindi non include /copyall
e sembra che /sec sia effettivamente incluso in /copyall
e anche /tee sembra includere /log solo che non sembra accettare un nome di file, quindi forse servono entrambi per forza
eh boh, uso quel comando da un po', ora tutti sti dettagli non me li ricordo
no problem, provo a chiedere in quel subr che mi hai indicato
Conte Zero
07-10-19, 15:06
Tengo tutto su migliaia di floppy, celati dentro al materasso. Baciatemi il cazzo, achers! :snob:
dunque, a quanto pare:
- /mt è consigliabile per fare prima, ma non so quanto bene funzioni su normali hdd. di default il programma lavora con mt = 8, ma si può andare fino a 128 file alla volta
- /tee necessita di /log, altrimenti l'interfaccia non mostra niente alla fine e mette tutto su file
- /copyall include sec
- si possono usare anche /w:0 e /r:0
Si... in cloud... i famosi server. Sono 3 e si chiamano Magi1:Melchior; Magi2: Balthasar, Magi3:Casper
annunciaziò annunciaziò... (cit.)
Powered by vBulletin® Version 4.2.5 Copyright © 2025 vBulletin Solutions Inc. All rights reserved.