5ちゃんねる ★スマホ版★ ■掲示板に戻る■ 全部 1- 最新50  

■ このスレッドは過去ログ倉庫に格納されています

RAID総合スレッド No.3

1 :login:Penguin:2007/01/11(木) 12:55:58 ID:rL+q6m/Y
Linuxでも標準でソフトウェアRAIDが可能となってきました。
マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう

スレ 1 http://pc5.2ch.net/test/read.cgi/linux/1013875908/
スレ 2 http://pc10.2ch.net/test/read.cgi/linux/1111348512/

Linux RAID 一般
ttp://linas.org/linux/raid.html
ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html
ttp://linas.org/linux/Software-RAID/Software-RAID.html
Adaptec Japan
ttp://www.adaptec.co.jp/product/raid/os_support_list.html

Linux EVMS 一般
ttp://www-6.ibm.com/jp/developerworks/linux/021220/j_l-fs12.html
ttp://evms.sourceforge.net/

... あと続けてくらさい。

2 :login:Penguin:2007/01/11(木) 13:57:58 ID:Qi1sg+Qg
(゚听)イヤダ

3 :login:Penguin:2007/01/12(金) 12:03:31 ID:k7DVEYg9
ソフトウェアRAID5で構成したアレイにもう一台ディスク追加して
RAID6にできればいいのになぁ。

4 :login:Penguin:2007/01/13(土) 00:59:20 ID:1daSzbwH
>>1

乙、今年はmdadmを懸命に応援する年になりそうだぜ。

5 :login:Penguin:2007/01/13(土) 17:52:42 ID:E9baDwwd
同じHDDが4台あるとして、

4台でSoftware RAID5
4台でSoftware RAID10
Software RAID1を2つ作ってlvm2でまとめる(疑似RAID10?)

では、信頼性、保守性でどれがいいでしょうか?
用途はデータ置き場です。バックアップはUSB HDDにとるつもりです。

6 :login:Penguin:2007/01/13(土) 17:58:46 ID:/hTyXuuv
お勧め2番、やるなら3番

7 :login:Penguin:2007/01/13(土) 18:30:01 ID:7SZBdiSI
md と lvm とを併用かぁ。
俺は今のところ 320GB * 4台 で RAID5 運用してる。
でもブート領域のためとかで RAID1 が欲しいから、
4台(hda,hdb,hdc,hdd) ともに 20GB + 300GB にして、
hda1+hdb1 = RAID1 20GB ブート・システム領域
hdc1+hdd1 = RAID1 20GB 未使用
hda2+hdb2+hdc2+hdd2 = RAID5 900GB


8 :login:Penguin:2007/01/13(土) 22:28:03 ID:/JYQPWqN
ICH8DHのahci + リムバ + mdadmのRAID1でホットスワップリカバリできました。

9 :login:Penguin:2007/01/14(日) 09:08:41 ID:NA5ZaSYQ
ちょっと古めのマシン AOpen AX3S Pro
+ Pentium III Coppermine FC-PGA 600EB
+ IDE HDD 4台 でファイルサーバを構築しているのですが、
ディスクが足りなくなったので増設しようとしています。

マザーボード上には HighPoint の HPT368 があるので、
これを単純に IDE インターフェースカードとして使って
/dev/hd{e|f|g|h} をつなごうと思っているのですが、
HPT368 を Linux で使う上での注意点としてはどんなものがありますか?
(つづく)

10 :login:Penguin:2007/01/14(日) 09:10:49 ID:NA5ZaSYQ
Windows 2000 で使っていたときには HPT368 のドライバのせいか
時々ブルースクリーンに落ちてしまったので、BIOS で
disable していたのですが、Debian GNU/Linux etch の dmesg によると

HPT368: IDE controller at PCI slot 0000:01:05.0
ACPI: PCI Interrupt Link [LNKD] enabled at IRQ 12
PCI: setting IRQ 12 as level-triggered
ACPI: PCI Interrupt 0000:01:05.0[A] -> Link [LNKD] -> GSI 12 (level, low) -> IRQ
12
HPT368: chipset revision 2
HPT368: 100% native mode on irq 12
ide2: BM-DMA at 0xb000-0xb007, BIOS settings: hde:pio, hdf:pio
ACPI: PCI Interrupt 0000:01:05.1[A] -> Link [LNKD] -> GSI 12 (level, low) -> IRQ
12
ide3: BM-DMA at 0xbc00-0xbc07, BIOS settings: hdg:pio, hdh:pio

とあっさり認識してくれて、リムーバブル箱つかえば活線挿抜も
可能なのか?と期待させてくれます。

PATA の HDD が20台ほどあり、できればそれらを活線挿抜しつつ
使いたいのですが、このまま HPT368 につないでいいものか
PATA->SATA 変換ボックスと SATA カードを買ってくるべきか、
都会のショップに出かける前に思案しております。

11 :login:Penguin:2007/01/14(日) 09:11:57 ID:NA5ZaSYQ
ちなみに電源ユニットは新しいものなので
SATA 用の電源も供給可能です。

12 :18歳♀:2007/01/15(月) 22:40:41 ID:mKLR9U0k
>>8
そういう情報うれしい。
手順も書いてくれると、さらにうれしいかも。

13 :login:Penguin:2007/01/16(火) 20:01:35 ID:2K/TQhFN
RAID5でオンラインでキャパ変更できますか?

また、RAID5のままLVMでロジカルボリューム変更できますか?


14 :login:Penguin:2007/01/17(水) 05:32:47 ID:dKhI4BNe
md と lvm2 って直交?というか独立?
アレイを物理ボリュームとして論理ボリューム作り出したり、
その逆に複数の論理ボリュームからアレイを作り出したり。
漏れ md しかつかってないんだけど、そういえば lvm の
機能として RAID 0 が実装されていたなんてことは過去無かった?
ちょっと混乱気味。なので md しか使ってない。

15 :login:Penguin:2007/01/17(水) 05:40:18 ID:dKhI4BNe
おちついて考えてみたら、チキンな俺は ext2 から使い慣れてる
ext3 を使っているので、ファイルシステムのリサイズができないから
意味ねぇ・・いや、なんかツール使えばリサイズくらいできるん
だろうけど、チキンな俺はそれでファイルシステム全体が
吹っ飛んでしまうんじゃないかと思って怖い。

16 :login:Penguin:2007/01/17(水) 05:55:12 ID:dKhI4BNe
MD の LINEAR アレイが提供する機能と、
LVM の提供する機能はかぶるんじゃないだろうか・・・
と思ったんだが、いま mdadm の manpage 読んでみると
mdadm の grow で --raid-devices が変更できるのは
RAID1 に対してのみに限られるんだね。
LINEAR アレイですら grow できないのか・・・
それはやはり LVM でやれということか。
眠い。

17 :13:2007/01/17(水) 08:12:16 ID:jQRUuA4a
ネットワーク上のストレージに地上デジタル
の画像を直接録画できるテレビがあるんですけど、
ものすごい容量食うんですよね。

で、lvm2で後からHDDを足しながら容量増せるような
システム作りたいのですが、lvm2だと1台のHDD死んで
しまうと全滅してしまうので、その基盤のボリューム
をRaid5にできないもんかと....。

18 :login:Penguin:2007/01/17(水) 10:11:40 ID:dKhI4BNe
>>17
ファイルシステム自体は何を使う予定ですか?

19 :login:Penguin:2007/01/17(水) 10:19:28 ID:dKhI4BNe
>>17
Linux Kernel 2.6.19 からは RAID5 に reshape の機能が
あるようです、なにやら危険なにおいがぷんぷんしますが。
http://www.mail-archive.com/linux-raid@vger.kernel.org/msg06587.html
前スレでも誰か言及してましたね。

自分的には RAID5 → RAID6 への reshape (というのか?)も
できるとうれしい。職場で二重障害を目の当たりにしたのでちょっとガクブル。
職場のサーバは RAID5+1だったので問題はなかったのですが。

20 :13:2007/01/17(水) 12:28:44 ID:jQRUuA4a
ほぼ、単機能のファイルサーバーなんでFSはなんでもいいのですが
Reiserで使ってます。

現状でもHDD6台バラバラに共有してるので隙間が目立つんですよね。
lvm2でボリュームを一つにまとめようかと思うのですが、やっぱ
怖いんですよね。

しかも用途が用途なのでRAID1にするほどでもない、、、でlvm2とRAID5
組み合わせられないものかと。

まあ、RAID5も気休め程度にはしかならない事は承知してますが
精神安定剤みたいなものですね。


21 :login:Penguin:2007/01/17(水) 16:04:39 ID:dKhI4BNe
RAID5が気休めって、そんなこと言わないでくれよー
やっぱり家庭用でもRAID6必要かな。
すでにRAID5で構築してしまった…

22 :login:Penguin:2007/01/17(水) 17:23:19 ID:tSbUi+N4
>>21
RAID5は一発でも落ちると綱渡りだからねぇ。

23 :login:Penguin:2007/01/17(水) 20:54:29 ID:dKhI4BNe
>>22
そうなんだよね。
すでにRAID5でデータ詰め込んでしまったからもうどうしようもない。
ところでRAID5はかなり長い間使っていて信頼してるんだけど、
RAID6のコードって枯れてる?RAID5のコードと一部統合なんて話もあるみたいだから
まだまだ紆余曲折ありそうで仕事に使うのは危険?

24 :login:Penguin:2007/01/17(水) 22:15:09 ID:pYVzOTz8
どうしても1アレイで大容量が必要という状況でない限り、
RAID1が信頼性、運用コストの面でベストではないかと
思い始めている今日この頃

25 :login:Penguin:2007/01/17(水) 22:24:09 ID:dKhI4BNe
4台ハードディスクがあるとして、RAID1とRAID6のどっちがいいだろうか?
有効容量はどちらもハードディスク2台分だから同じ。
2台が壊れたときRAID6なら助かるがRAID1なら
壊れ方によっては助からない。

26 :login:Penguin:2007/01/17(水) 22:34:56 ID:l/++G+GY
1台壊れた時のリビルド中の不良セクタ遭遇も考えると6

27 :login:Penguin:2007/01/17(水) 23:08:29 ID:dKhI4BNe
やっぱりRAID5からRAID6へのreshapeと
growはできると嬉しいな。
でも作業中に障害が発生して全部吹っ飛ぶなんてのはごめんだけど。

28 :login:Penguin:2007/01/17(水) 23:18:52 ID:Mb7Fwpgg
データを守ろうとすればカネがかかるわけで、
どのくらいカネかけれるかにもよるな。

まともに運用できるならRAID6は武器になるが、
運用失敗した後のリカバリではRAID1が圧倒的に強い。
セクタエラー程度ならそのままほとんどのファイルを救出できるからな。


29 :login:Penguin:2007/01/17(水) 23:32:00 ID:NH1vWgwK
RAID6の箱を買えばいいんじゃないか?

30 :login:Penguin:2007/01/17(水) 23:33:48 ID:to65kYg+
>>29
個人で買ってもよさげな価格帯の物ってある?


31 :login:Penguin:2007/01/18(木) 08:03:42 ID:CGK1nL0s
>>23 ソフトウェアRAIDの話?
RAID6(HDD11発と4発)を1年ほど使ったけど、RAID6側の問題は特に感じてないよ。
むしろ、同時アクセスによる割り込み処理の問題か何かが効いているような。
CPU/MBをAMD系からIntel系に変えてディスクアクセス関係のエラーが激減した。

32 :login:Penguin:2007/01/18(木) 17:33:03 ID:fQv5Q68V
>26
どれくらいまでの遅さなら耐えられる?

33 :login:Penguin:2007/01/19(金) 13:45:34 ID:Gws+Pgem
ネットワークでつながっている別のマシンの
パーティションを使ってRAID・・・って無理かww

34 :login:Penguin:2007/01/19(金) 13:52:18 ID:8Avse/mS
>>33
nbdをどうぞ

35 :login:Penguin:2007/01/19(金) 14:10:33 ID:Gws+Pgem
>>34
ふ〜む、そういうものがあるのか。
古いノートパソコンをもらったんで
自宅鯖にしてみようと思ったんだけど、
ディスクは一台しかついてないから
RAID1にできないなぁ、でも横のファイルサーバの
余っているディスク領域をネットワーク越しに
ブロックデバイスとして見せかけられれば
それ使って md の設定できないかなぁ、なんて思った。


36 :login:Penguin:2007/01/19(金) 14:15:42 ID:i9bLknZd
>>35
AoEおすすめ

37 :login:Penguin:2007/01/19(金) 14:23:19 ID:Gws+Pgem
ATA over Ethernet なんてものもあるのか。
それなりに Linux ずっと使ってきたのに、
まだまだ知らないものがあるんだなぁ・・・
単に俺が勉強不足なだけかも知れんが。

38 :login:Penguin:2007/01/19(金) 15:03:55 ID:T0ADJeSd
ATA over Ethernet 〜そしてiSCSI〜

39 :login:Penguin:2007/01/20(土) 01:43:14 ID:eR+5JFV/
秋葉まで見に行こうかと思ってるんですがRAID製品が
豊富な店とかってあります?
横浜のヨドバシにいったら、「RAID」が何かすらわからない
店員の上に、しょぼいカードが一つあるだけだったので…

40 :login:Penguin:2007/01/20(土) 02:21:50 ID:9XDpbJRu
USER'sSIDE 高いが品揃えは多い
DOSパラ(一部店舗?) 最近は3wareとか置いてるらしい
PCSERVER1 otto系列のサーバ屋、ARAIDとか扱ってる

まぁ、メジャーな店だと何も無いわな


41 :39:2007/01/20(土) 08:43:18 ID:eR+5JFV/
>>40
ありがとう。いってみます

42 :login:Penguin:2007/01/21(日) 02:09:27 ID:IoD8SZQl
ttp://www.ussg.iu.edu/hypermail/linux/kernel/0701.2/0981.html
2.6.19.2のRAID5ってやばいの?

43 :login:Penguin:2007/01/21(日) 11:43:08 ID:2HWPh1+Q
>>42
うぉ、ガクブル。

44 :login:Penguin:2007/01/21(日) 16:40:50 ID:L1NhTi/1
外出だったらスマンが、mdadmでRAID5のreshape(OCEのようなもの?)
ができたので報告。

環境:fedora core 6、kernel2.6.18-1.2869.fc6、mdadm v2.6(ソースからコンパイル)
RAID:/dev/md0、RAID5、HDDx3、ext3

1. 既存のRAID5にmdadmでオンラインのスペアディスクを追加
2. mdadm --grow /dev/md0 --raid-disks=4
(ここで念のためRebuildが完了するまで放置)
3. resize2fs /dev/md0

3の部分がちと怖いのでバックアップは忘れずに。
それとテスト環境でやっただけなので、まだ何か落とし穴があるかもしれん。
ご利用は自己責任で。
このあとfc4の本番環境でもやる予定だす。

45 :login:Penguin:2007/01/21(日) 21:33:42 ID:2HWPh1+Q
>>44
報告乙。もともとディスク数3だったのを4にしたんだね?
いままで RAID1 でしかディスク数の grow はできなかったんだよね。
resize2fs って怖かったのか、どんなファイルシステムでもリサイズは
全てを失うことがありそうで怖くてまだやったことない。

46 :login:Penguin:2007/01/21(日) 22:09:47 ID:L1NhTi/1
>>45
どもデス。乙と言ってもらえるとうれしいもんですなw
そうです、ディスク数を3本から4本、それと同時に容量もアップしました。
ちょっとわかり辛かったですね、スマソ。

>全てを失うことがありそうで怖くてまだやったことない。
激しく尿意w
なもんでテスト環境でしかまだやってまへんです。

47 :login:Penguin:2007/01/21(日) 23:21:55 ID:g+NGJWvd
>>44
報告thx!
1イベントとはいえ、こういう生の情報が、2chってかんじで好き。


48 :login:Penguin:2007/01/22(月) 10:47:09 ID:PELFx8lh
でも匿名で書くとラジオのアナウンサーに
首くくれって怒鳴られちゃうんだよな・・・

【ラジオ】コンちゃんこと近藤光史がラジオ番組で
「2ちゃんねるユーザーは『首くくれ』『人間として価値が無い』」と発言
http://news21.2ch.net/test/read.cgi/dqnplus/1168956483/

49 :login:Penguin:2007/01/22(月) 13:12:45 ID:PELFx8lh
カーネル入れ替えたときとか、もしバグでアレイが全部
吹っ飛んだらどうしようってすげぇビクビクする。
せめてデバイス丸ごとリードオンリーにして
アレイが問題なく構成できてファイルシステムにも
問題がないことをチェックしてから書き込みを許可できればなぁ。
数テラバイトが吹っ飛ぶなんて悪夢だ。

50 :login:Penguin:2007/01/22(月) 16:03:33 ID:2B3NlAcw
なんつーか、ファイルシステムとかRAID関連のバクはあまりにも
致命的すぐる。
それ以外のパッケージはunstableでも物ともせず使ってるが、
こればっかりはなぁ。


51 :login:Penguin:2007/01/22(月) 17:47:34 ID:V25cnwwm
>>48
新聞だってテレビのニュースだって、ほとんど匿名記事じゃないか。
アメリカに行って、テレビや新聞の記事が、記者の署名付きなのに感心した。

>>50
すげーちっさいテスト環境でテストしてから、メイン環境に使えば良いんだけど、
ちいさい環境だと問題が出てこないバグもあるからなぁ。
RedHat様やSuSE様やらを信じるしかありませんな・・・。


52 :login:Penguin:2007/01/22(月) 17:54:44 ID:PELFx8lh
>>51
うん、特にオーバーフロー系のバグがそうだよな。
昔ループバックデバイスで開始位置にオフセットが
設定できるようになったとき、先頭10KB飛ばして
マウントならうまくいったのに、ハードディスクの
イメージファイルの先頭10GBくらい飛ばして
途中のパーティションの中のファイルシステムを
マウントしようとしたら吹っ飛んだことがあった。
ソースコード見たらオーバーフローだった。
unsigned long で保持していなきゃならないデータを
途中 unsigned で保持している関数があった。

53 :login:Penguin:2007/01/24(水) 16:00:33 ID:Z+Ac2IS8
mdで構築したraid5があります。
一台のHDDでエラーが発生したのですが、アドバイスをお願いします。

○構成
sda1 + sdb1 + sdc1 + sdd1 + sde1 + sdf1

○不良HDD
 sdb1

sdb1が壊れただけなのにCentOS4.4自体の動作が非常に遅くなり
キー入力もおぼつかないので電源を落としました。

次回の起動時に自動的にsdb1への「background reconstruction」というのが
実行されました。
しかしやはりsdb1が悪いみたいで途中で失敗していました。

代わりのHDDがなかったので、hdaに空きエリアがあったのでhda4としてタイプfdを
作ったところ、fdiskが再起動しないとパーティションが有効にならないと言ってきたので
再起動したところ・・・md0がアクティブにならなくなりました。

手作業で以下のコマンドを実行してみました。
# mdadm -A /dev/md0
mdadm: only specify super-minor once, super-minor=0 ignored.
mdadm: /dev/hda has no superblock - assembly aborted

見に行かなくてもいいhdaを見に行っているので、fdiskでhda4を消して再起動しました。
それでもやはりmd0がアクティブになりません。
再度mdadm -A /dev/md0を行うと、同一のメッセージが表示されます。

以下続く

54 :53:2007/01/24(水) 16:01:42 ID:Z+Ac2IS8
# mdadm -A /dev/md0 -u f4475b9d:5bda6704:e44257df:8f139846
すると
mdadm: only specify super-minor once, super-minor=0 ignored.
mdadm: failed to RUN_ARRAY /dev/md0: Invalid argument
となります。

# mdadm -D /dev/md0
すると
State : dirty, degraded
になっており、アクティブになりません。

どなたかアドバイスをいただけないでしょうか?

55 :login:Penguin:2007/01/24(水) 18:13:34 ID:yaoVJouN
--run --force

56 :53:2007/01/24(水) 18:45:52 ID:Z+Ac2IS8
>>55
的確なレスありがとうございます。

以下のコマンドで復活できました。
# mdadm -A /dev/md0 -u f4475b9d:5bda6704:e44257df:8f139846 --run --force

fsckも通りマウントが正常にできました。
生半可な知識でRebuildせずに、まずはバックアップを取ってからアクションを取りたいと
思います。

57 :sage:2007/01/30(火) 00:14:05 ID:FqKDfkvN
Raidのリカバリで使うcpuパワーを上げ下げするコマンドを忘れてしまいました。
たしか、
echo ・・・・・>/proc/mdstat
とかそんな感じで設定するのだったと思うけど・・
どなたかご存知ありませんか?

58 :login:Penguin:2007/01/30(火) 00:24:12 ID:z0mWjF4o
エラー無く動いているmdにスペアディスクを設定したいと思います。
以下のコマンドラインで大丈夫でしょうか?

# mdadm --manage /dev/md0 -a /dev/sda1

59 :login:Penguin:2007/01/30(火) 02:20:02 ID:R4Zg6UYv
だれか
AMCCの 3ware 9650SE SATA II ハードウェア RAID コントローラ

そのまま動いている人いる?
CentOSインスコ中にエラーで止まる orz
(パーティーションきるところで)


60 :login:Penguin:2007/01/30(火) 07:29:29 ID:axnxJ40m
>>57
/proc/sys/dev/raid/speed_limit_max ?

http://www.die.net/doc/linux/man/man4/md.4.html

61 :58:2007/01/30(火) 07:45:15 ID:z0mWjF4o
自己解決しました。
その手順でOKでした。

62 :login:Penguin:2007/01/30(火) 23:19:58 ID:bAqM0WLs
nForce430とか61PとかでSATAでFake RAID
使っている人いませんかね?

人気ないのかな?

63 :62:2007/02/03(土) 21:35:50 ID:BVcNdfG1
過疎ってますので自作板に移動します。

64 :login:Penguin:2007/02/06(火) 15:02:39 ID:t9fdHqTH
ソフトウェアRAID1でランダムリード性能は向上するものでしょうか?
わかるかたいましたらおしえてください

65 :login:Penguin:2007/02/06(火) 15:20:14 ID:5Kb3UM8n
実装によるし、アクセスパターンやタイミングにもよるようだ。
LinuxのソフトウェアRAIDではやや向上する事もあるが、全く効果がないときもある。
実際に動かして測定してみれ。

66 :login:Penguin:2007/02/06(火) 21:45:49 ID:+WLVKn/X
RAID5のアレイにもう一つディスクを足してRAID6に出来ないものですかね。

67 :login:Penguin:2007/02/08(木) 18:02:09 ID:FCZCQ0FS
>>59
Debian etch(kernel:2.6.18-3-amd64) で使ってる。

自分の場合は / で使うつもりはなかったから、OS インスコ してから
ドライバコンパイルして元々の 3w-9xxx.ko と入れ換え、
マウントしていまんとこ普通に使えてる。

そのままだとたしかに認識してくれなかったなぁ。
対応鳥じゃないとインスコ時の正常動作は無理かも

最近 Linux 使いはじめた人間なんで、詳しい対応策書けなくてゴメンヨ
とりあえず報告だけ

68 :login:Penguin:2007/02/10(土) 16:50:10 ID:ptuSH4++
リムバ+Software RAIDでホットスワップするときって、hdparmでHDDを
スピンダウンさせてからリムバの電源を切る方が安全だよね?

69 :login:Penguin:2007/02/21(水) 20:45:48 ID:HkfANAOw
RAID5からRAID6へのアップグレード(?)ができればいいのになぁ。

70 :login:Penguin:2007/02/23(金) 20:26:40 ID:ArHTYZC9
RAIDって速度の違うドライブを使えば、速度の遅い方に足引っ張られるという認識で正しいですか?

71 :login:Penguin:2007/02/23(金) 22:09:23 ID:obdKOU01
スーパーマリオブラザーズ
http://www.youtube.com/watch?v=AWxpcd4Nbto



72 :login:Penguin:2007/02/24(土) 03:31:20 ID:jErYcOQJ
>>70



73 :login:Penguin:2007/02/24(土) 15:09:12 ID:MbL5jte/
RAID6ならRAID5+スペアディスクのほうが良いだろ。

74 :login:Penguin:2007/02/24(土) 17:45:18 ID:ZgJOy0Gl
二重障害に対応できない。

75 :login:Penguin:2007/02/24(土) 18:22:06 ID:MbL5jte/
RAID6のひとって、スペアディスクつけてるの?

76 :login:Penguin:2007/02/25(日) 12:51:24 ID:EPXHhgqo
付けないなら4-Way RAID1やるよ

77 :login:Penguin:2007/02/26(月) 02:05:00 ID:W3wudzvE
>RAID6のひとって、スペアディスクつけてるの?

遠隔地サーバーならともかく、自宅鯖の場合壊れたら
即交換できるからRaid6はいるけどスペアはいらない
と思っている、12WaySoftRaid6の俺

78 :login:Penguin:2007/02/26(月) 10:00:23 ID:dEzBE57o
RAID5 と RAID1 を比べて、スループットと
シンプルさ、何かへんなことが起きたときの
サルベージの可能性という点から考えての
「RAID1のほうが優れている」という主張には
同意できるんだけど、「RAID6よりRAID1の方が
優れているという主張っておかしくない?
たとえば http://www.13hz.jp/2006/09/raid6_695e.html とか

RAID1だとスペアに切り替わるときにはエラー無く
当該ディスク(の片割れ)からすべてのデータが
読み出せるということが前提となっているわけで、
二重障害ということを考えていないんじゃないだろうか。

ディスクが二台壊れるという場合を考えると、
その壊れ方によってはRAID1では復旧できない。

79 :login:Penguin:2007/02/26(月) 12:57:37 ID:mtS8QI8m
>「RAID X のほうが優れている」

そもそも単一の基準で全てをカバーできるなら
こんなにいろいろな種類は存在してないよ

だからそういう主張自体無意味だし反論も無駄

80 :login:Penguin:2007/02/26(月) 13:17:37 ID:C16dA1y2
> ディスクが二台壊れるという場合を考えると、
> その壊れ方によってはRAID1では復旧できない。

二台とも完全に逝った場合はどうしようもないが、
セクタエラー程度なら、二台のデータを相互補完することで完全復旧する事も可能。

アレイの台数が増えれば、どれかが壊れる確率もそれだけ上がるし、
最小構成の2台でデータの保持ができ、
定期的なエラーセクタスキャンでほとんど回避できるとすれば
わざわざRAID6に突貫して自滅する必要も無いだろう。

RAID6で処理が複雑になる分、バグ等の問題が無いのかと考えると現時点では微妙な気もするし。


81 :login:Penguin:2007/02/26(月) 23:28:29 ID:VI1vlLsi
だよな。
俺たちのレベルだと、raid1+定期バックアップってのがいちばんよさそうだな。
読み書きの速度も落ちないしな。
RAIDコントローラの故障も考えると、ソフトウエアRAIDのほうがいいかもしれん。
最近のBIOSのRAID+dmraidでも、チップセット変わったら読み込めないよな?

82 :login:Penguin:2007/02/27(火) 00:35:02 ID:3idNzfzC
うむ、多少遅くても md が一番安心。
同じ(もしくは互換性のある)コントローラ積んだ
RAIDカードがいつでも入手可能であるとは限らないし。

83 :login:Penguin:2007/02/27(火) 04:27:20 ID:hjhB7IjX
自分はRAID6(スペアなし) + 定期Backupですね
ネット越しにしか使用しないので読み書き速度は遅くても全然平気

むしろ、データの保全性のほうが重要なんで、ハードRAIDは
今までの経験で壊れる頃には同じ仕様のハードを手に入れるのが
困難になっているので、使わない

>二台とも完全に逝った場合はどうしようもないが、
>セクタエラー程度なら、二台のデータを相互補完することで完全復旧する事も可能。

疑問なんですが、二台のデータのうちどっちの保持してるデータが正しいってどうやって分かるんでしょう?
Raid5,6ならパリティで分かるけど・・



84 :login:Penguin:2007/02/27(火) 09:44:41 ID:3idNzfzC
>>83
読み出せたら正しい、正しくないものは読み出せない、
ということでそれ以上はあきらめるしかないだろうなぁ。
ハードディスクのセクタを記録するときにつけられている
であろう Error Detection Code (CRCとか?) を
すりぬけて正しくないものがたまたま読み出せてしまう
ということも実際にはあるだろうと思うので、それはあきらめる。

ファイルごとに Tripwire みたくハッシュを取って置いて、
つじつまが合うように正しいと思われるほうを選択する
という手もあるだろうけど、現実的じゃない気がする。

85 :login:Penguin:2007/02/27(火) 10:33:59 ID:mCUslleJ
>80
理屈はその通りだし、高級機ではそうしてくれるのかもしれない。

が... 現実はこういうヌケ作実装の多いこと:
一カ所セクタエラーが見つかると "障害あり" status に移って
もう片方から全コピーをしようとする。
このときコピー元側の別の部分にエラーがあると... お亡くなり...

86 :login:Penguin:2007/02/27(火) 14:31:53 ID:3idNzfzC
>>85
そうなんだよな・・・
再び先ほどはエラーがあったディスクのほうからの
読み出しを試みて・・・って言う具合にはしてくれない
実装も多いんだよね。

まぁ dd で交互に手動でがんばる、ということも
原理的には可能なんだろうけどね。って、
そういうツールを書けという話もあるが。

87 :login:Penguin:2007/02/27(火) 16:39:51 ID:QhBLHNeL
だからパーティション分割して細かいmdをいくつか作り、LVMで束ねる

88 :login:Penguin:2007/02/27(火) 19:17:56 ID:hjhB7IjX
mdの上にLVM・・ストレージのコントロール層を増やすごとにバグとかで
ボリューム結合できなくなる可能性が増えるきがする・・・・
昔LVM構成してたpvのヘッダが壊れて全体が読み出せなくなった悪夢が・・
(手動でヘッダを偽造してむりやり結合したけど)

89 :login:Penguin:2007/02/27(火) 19:52:19 ID:c7Z/JEvk
3w 9650のpci-exp版動かしてる人柱なネ申はいらっさいますか?

90 :login:Penguin:2007/02/27(火) 21:29:22 ID:iRfrQvRF
うーん、250GB*8のRAID5でext2で1パーティション切ったのは大失敗だなあ。
UPS保護してない時に電子レンジ+ドライヤー+炊飯器攻撃でぷつん。fsckでごりごりやり始めて早、2日間・・・。
1.6TB総なめするのにどんだけかかるんだか見当もつかん。俺アホだorz
無事回復してくれたら、一回データ総待避してext3にするなりLVMで管理するなりしよう・・・。
初心者でTB級のアレイ組む人、マジ気を付けろよー

91 :login:Penguin:2007/02/27(火) 22:05:44 ID:3idNzfzC
>>90
tune2fs -j じゃだめなん?
ext2→ext3なら特に退避せずに安全に移行できると思うんだが。
俺なんか間違ってる?

92 :login:Penguin:2007/02/27(火) 23:38:23 ID:vJg7XKnj
>>90 人柱乙! すげー参考になりました。いやまじで。
ほかのファイルシステムにしたらどーなんのかやってみたいw

93 :login:Penguin:2007/02/28(水) 01:06:12 ID:OKX6DIDl
おれは ext3 で、RAID5(7+スペア)で、 3.5TB以上だけど、
マウント回数と前回のfsckからの時間をみて、
たまに boot 時に fsck でディスク総なめのチェックがかかるよね。
まぁ、しかたねーべ。タイミングはパラメータいじって調整はできるが、とくにしてない。
でも、おれは数時間で終わるけど?
ハードウェアRAIDは読み出しは速いってことか。

94 :login:Penguin:2007/02/28(水) 01:33:35 ID:KXOqHZSX
ext2でfsckが二日以上かかるなんて話初めて聞いた。

最近はext2自体使わなくなったからなぁ


>>90
ext2→ext3にする場合でも、fsckが必要な状態ではfsckが先だろう。

95 :login:Penguin:2007/02/28(水) 01:35:24 ID:A1/xdUFc
うちのは250GB*6のRAID5。
ひとつのmd0として作成していて、そのうえにext3を作ってます。

メインメモリが448MBなんですが、たまにboot時に実行されるfsckで
メモリ不足と表示されて途中でmd0へのfsckしくじります。

fstabからmd0外して再起動させて、きちんとCentOSが起動完了して
からでないとfsckが完了しません。

多分、swap有効にする前にfsckが実行されているからかな〜と推測
していますが、あまり気にしていません。

今はmd0にLVM作ってlvol分ければよかったと後悔しています。

96 :login:Penguin:2007/02/28(水) 13:02:00 ID:IgJHr+00
tune2fs -c0 -i0

97 :login:Penguin:2007/02/28(水) 13:15:09 ID:A1/xdUFc
たしかに起動時のfsckチェックをなくしてやるってのも手ですけど
ちょっとそれも少し怖いような気が。

fsckがswap有効後に実行されれば別に問題ないと思うんですが。

とりあえず仕様ってことであきらめてます。
でもレスさんくす。

98 :login:Penguin:2007/02/28(水) 13:44:42 ID:1/vmpLar
まだおわんないなー、グラフ表示のオプション付けた時のグラフ表示、何故か100%になった後また0%になってたし、
もしかして何かバグにぶちあたってるのかなあ・・・・。いくらなんでも3日間近くかかるのは変だよね?

>>91
fsck終わったら試してみるです。thx。

>>93
H/Wだと確かドライバとコントローラ側で上手く騙して素通りさせるんじゃありませんでしたっけ?
fsckの層の更に奥で本当のチェックを走らせてるようなイメージで・・・・。

>>95

参考までにお聞きしたいんですが、fsck完了までどれぐらいかかりましたか?




99 :login:Penguin:2007/02/28(水) 14:04:29 ID:A1/xdUFc
OS起動時のfsckだと、4時間後ぐらいに50%ほど終わってから
「メモリのアロケートができねーよ」
っていう英文吹いてメンテナンスモードになってしまいました。

X上でfsck手動でやった場合は1時間ほどで終わりましたよ。

私のスペックさらしておきます。
P3-500MHz
448MB
P2B-F

Sil3112&Sil3114に250GB*6でmd0(RAID5)作って直接ext3。

31 KB
■ このスレッドは過去ログ倉庫に格納されています

★スマホ版★ 掲示板に戻る 全部 前100 次100 最新50

read.cgi ver 05.04.00 2017/10/04 Walang Kapalit ★
FOX ★ DSO(Dynamic Shared Object)