アカウント名:
パスワード:
しょうがないから、GNU/LinuxもしくはBSD系のOSだろうと仮定します。
Dar [linux.free.fr]と言うバックアップツールがあります。使い方とか:http://www.miloweb.net/dar.html [miloweb.net]
動画とか音楽が中心なら専ら無圧縮モードを使って、・数カ月に一回程度フルバックアップ・毎日・もしくは三日おき程度に差分バックアップ・フルバックアップと前後して以前のフルバックアップと差分を消去する
こういう感じでcrontabでスケジュールを組んでやれば…勿論バックアップを取る時のディレクトリの分割の仕方とか大事ですが…、いざ吹っ飛んだ時にフルバックアップの結果と差分データが生きていれば、最後にバックアップ取った程度まで巻き戻せる。
このケースならばアクセス頻度が低くて通信速度も低速で良いHDDが、多分総計で45TB位必要になりますが(lvmの類を使えば別にRaidにしなくてもよい)、一個のアーカイブファイルのサイズを適切に設定すれば、BD-Rなどに効率よく書き込むことも可能ですので、ここまでフルバックアップの頻度を上げる必要がないかも知れない(でも、二層のディスクで200枚って地獄ではありますが)。
しかし、20TB…フルバックアップに何日かかるのやら(;´Д`)
どうやって、という方法を聞かれればそうなんだろうけど、たぶん、今回の議題としては、どのようにバックアップを保存しておくか、ってことだろうと思う。なので、そのバックアップ先はどういうもので構築するの?ってことかと。
>どうやって、という方法を聞かれればそうなんだろうけど、たぶん、今回の議題としては、どのようにバックアップを保存しておくか、ってことだろうと思う。>なので、そのバックアップ先はどういうもので構築するの?ってことかと。
確かにそれはそうなんですが、物理層をどうするかと言うのを決める前に、バックアップをどういう方式で取るか決めておかないと如何ともしがたい事例だと思います。ソフトウェアや使い方・後はどの位でバックアップをリフレッシュするかが決まれば、要求する冗長性やセキュリティをどういうハードウェアで実現するか目星がつくし、そこと調達コストや維持コストが逆算できますから、自分が現実的に可能な方法との妥協点も見いだせる。
20TBと言うのは、そのデータがコレクターのそれであるなら猶更、最早漫然と保管しておけばいい分量じゃないですし、漫然と別のRAIDでミラーリングしてたらお金がなんぼあっても足りなくなる。どこかで多重化して冗長性を確保しないといけないし、場合によっては重要なファイルに関してだけ優先的に(HDD以外にBDに逃すなどして)多重化する事を迫られる必要(要は中のファイルに対してトリアージを行う)も出てくるでしょう。
せめて、この段階までは戦略を立てていく事を質問された方に求めて行った上で、こういうハードウェアはどうかと提案していかないと、無理でしょう。量が多すぎる。
後、ちまちまとBDを焼いて、それを温度や湿度が安定してる遮光環境に置いていくのも、多分コレクターならば重要になる。
darを使った事があるわけではないですが。rsyncで差分をバックアップした場合から想像するに、
フルバックアップだけでなく、差分バックアップでも、20TBのディスクから更新されたファイルを探すのに、現実的でない時間がかかると思います。毎日差分バックアップをするとして、更新されたファイルを探すのに数時間かかるとすると現実的でないと思われます。
この辺は、ファイルシステムのサポートを期待したい所ですね。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
「科学者は100%安全だと保証できないものは動かしてはならない」、科学者「えっ」、プログラマ「えっ」
使われてるOSがかかれてないけど (スコア:1)
しょうがないから、GNU/LinuxもしくはBSD系のOSだろうと仮定します。
Dar [linux.free.fr]と言うバックアップツールがあります。
使い方とか:http://www.miloweb.net/dar.html [miloweb.net]
動画とか音楽が中心なら専ら無圧縮モードを使って、
・数カ月に一回程度フルバックアップ
・毎日・もしくは三日おき程度に差分バックアップ
・フルバックアップと前後して以前のフルバックアップと差分を消去する
こういう感じでcrontabでスケジュールを組んでやれば…勿論バックアップを取る時のディレクトリの分割の仕方とか大事ですが…、いざ吹っ飛んだ時にフルバックアップの結果と差分データが生きていれば、最後にバックアップ取った程度まで巻き戻せる。
このケースならばアクセス頻度が低くて通信速度も低速で良いHDDが、多分総計で45TB位必要になりますが(lvmの類を使えば別にRaidにしなくてもよい)、一個のアーカイブファイルのサイズを適切に設定すれば、BD-Rなどに効率よく書き込むことも可能ですので、ここまでフルバックアップの頻度を上げる必要がないかも知れない(でも、二層のディスクで200枚って地獄ではありますが)。
しかし、20TB…フルバックアップに何日かかるのやら(;´Д`)
Re: (スコア:0)
どうやって、という方法を聞かれればそうなんだろうけど、たぶん、今回の議題としては、どのようにバックアップを保存しておくか、ってことだろうと思う。
なので、そのバックアップ先はどういうもので構築するの?ってことかと。
Re:使われてるOSがかかれてないけど (スコア:1)
>どうやって、という方法を聞かれればそうなんだろうけど、たぶん、今回の議題としては、どのようにバックアップを保存しておくか、ってことだろうと思う。
>なので、そのバックアップ先はどういうもので構築するの?ってことかと。
確かにそれはそうなんですが、物理層をどうするかと言うのを決める前に、バックアップをどういう方式で取るか決めておかないと如何ともしがたい事例だと思います。
ソフトウェアや使い方・後はどの位でバックアップをリフレッシュするかが決まれば、要求する冗長性やセキュリティをどういうハードウェアで実現するか目星がつくし、そこと調達コストや維持コストが逆算できますから、自分が現実的に可能な方法との妥協点も見いだせる。
20TBと言うのは、そのデータがコレクターのそれであるなら猶更、最早漫然と保管しておけばいい分量じゃないですし、漫然と別のRAIDでミラーリングしてたらお金がなんぼあっても足りなくなる。
どこかで多重化して冗長性を確保しないといけないし、場合によっては重要なファイルに関してだけ優先的に(HDD以外にBDに逃すなどして)多重化する事を迫られる必要(要は中のファイルに対してトリアージを行う)も出てくるでしょう。
せめて、この段階までは戦略を立てていく事を質問された方に求めて行った上で、こういうハードウェアはどうかと提案していかないと、無理でしょう。量が多すぎる。
後、ちまちまとBDを焼いて、それを温度や湿度が安定してる遮光環境に置いていくのも、多分コレクターならば重要になる。
Re: (スコア:0)
darを使った事があるわけではないですが。
rsyncで差分をバックアップした場合から想像するに、
フルバックアップだけでなく、差分バックアップでも、
20TBのディスクから更新されたファイルを探すのに、現実的でない時間がかかると思います。
毎日差分バックアップをするとして、更新されたファイルを探すのに数時間かかるとすると現実的でないと思われます。
この辺は、ファイルシステムのサポートを期待したい所ですね。