2013年17Linux143: RAID総合スレッド No.5 (845)
TOP カテ一覧 スレ一覧 2ch元 削除依頼 ▼
( ´_ゝ`)流石(´<_` )ぃぬx板 (797)
俺の日記帳 第二冊目 (680)
Linuxで動くオープンソースエロゲを作ろう!4 (516)
エディタ論争 (198)
LINUXにあきた (115)
【初心者スレ】Ubuntu Linux 90 (791)
RAID総合スレッド No.5
1 :2009/09/16 〜 最終レス :2013/08/25 Linuxでも標準でソフトウェアRAIDが可能となってきました。 マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう スレ 1 http://pc5.2ch.net/test/read.cgi/linux/1013875908/ スレ 2 http://pc10.2ch.net/test/read.cgi/linux/1111348512/ スレ 3 http://pc11.2ch.net/test/read.cgi/linux/1168487758/ スレ 4 http://pc11.2ch.net/test/read.cgi/linux/1208263754/ Linux RAID 一般 ttp://linas.org/linux/raid.html ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html ttp://linas.org/linux/Software-RAID/Software-RAID.html Adaptec Japan ttp://www.adaptec.com/ja-JP/_common/os_support/linux/ Linux EVMS 一般 ttp://evms.sourceforge.net/ Adaptec Japanのアドレス修正。EVMSに関するIBMのサイトが404で見つからないので削除。 ... あと続けてくらさい。
2 : 2隷奴
3 : 前スレ、どうなった? 1000行ってなかった気がするけど、落ちた?
4 : >>3 984でDATE落ちしてて誰もたてる様子がなかったので建てました
5 : >>3 981以上で一定期間書き込みがないと落ちる。
6 : すみませんちょっと質問させてください。 stripe orderって論理的なslotナンバーみたいな認識で良いんでしょうか? ググったんですが解説しているとこがなくて困ってます。 お願いします。
7 : mdadmでRAID5のアレイにディスクを一本足そうとadd→growしたんだけど うっかりパーティションを切り忘れてディスクデバイスそのものをaddしちゃったので reshapeジョブをいったん止めたい。 しかしmdadmからあれこれ試したところ 何やっても「今やってるからちょっと待っとけ」みたいな表示。 でも素直に待ったら一日かかる。 諦めるしかないかなー?
8 : バックアップも取らずにreshapeしたのなら諦めるしかないのでは?
9 : 質問です。 CentOS5.3のmdadmのRAID5で、Rebuild Statusが30%completeぐらいで0%に戻ります。 rebuildしている状態で、mountしようとすると、以下のような感じになります。 何か救済案はないでしょうか。 [root]# mount /data mount: wrong fs type, bad option, bad superblock on /dev/md2, missing codepage or other error In some cases useful info is found in syslog - try dmesg | tail or so [root]# dmesg | tail SCSI device sdk: 1953525168 512-byte hdwr sectors (1000205 MB) sdk: Write Protect is off sdk: Mode Sense: 00 3a 00 00 SCSI device sdk: drive cache: write back md: syncing RAID array md2 md: minimum _guaranteed_ reconstruction speed: 1000 KB/sec/disc. md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for reconstruction. md: using 128k window, over a total of 976759936 blocks. EXT3-fs error (device md2): ext3_check_descriptors: Block bitmap for group 3968 not in group (block 834142208)! EXT3-fs: group descriptors corrupted!
10 : >>8 いや、つまりムダな時間がかかるから止める方法ないかな?って話なんだけど バックアップがあったらなんかいいことあったかね? どうせ書き戻しやら何やらしなきゃならないからあまりメリットが思いつかないけど
11 : >>7 sata/md/lvm/fs なオレはパーティションなんぞ切らずにmdでRAID5 array組んでますよ
12 : >>9 fs壊れてるよ、それ・・・
13 : 結局素直に時間で解決したw >>11 俺も昔はそうしてたんだけど、 ある時、アレイの容量を増やそうと同容量のディスクを一本買ってきたら 元あったディスクと新規ディスクの総セクタ数がほんの少し違ってて (つまり新ディスクの方が数セクタ少なくて)追加できず…ということがあった。 それ以来、総容量より僅かに小さいパーティションをきちんと切るようにしたよ。
14 : ん? mdならパーティションなんぞ切らなくても 使用容量が指定できたと思うが それに既にあるアレイに追加するなら どう転んでも既に使われてる他のドライブと 同じ容量しか使われない 時間がどーとか悩むだけ無駄
15 : >>13 嫌過ぎるな > わずかに足りない LVMで500GBx3をLVMでまとめて 1.5TBのディスクのアレイに参加させようとしたらわずかに足りない・・ 良く見たらfree PEがまだまずかに残っていた。lvextendで0になるまでぶちこんだらなんとかなった
16 : >>15 LVMでまとめたボリュームをRAIDに加えるって なんでそんな危険なことを? RAIDの意味を真っ向から否定するようなw
17 : >>16 比較的最近1.5TBをメインのアレイに変えたので これまでの500GBがいっぱい余っているため。貧乏性なので・・
18 : >>13 --size または -z
19 : >>17 「いっぱい余ってる」なら LVMではなく もう一個足してRAID5のボリュームにして それをもう一段上のRAIDに参加させる の方が正しいような気がする。 面倒くせーから 俺はやらんけどねw
20 : >>19 正確には6個なので、それも考えたけど。 で、まあ 結局のところ止めました!w リビルド開始までは確認したけど「遅ッ」 1.5TBなら 25MB/sくらいの速度なのだけど LVMまぜたら 17MB/sくらいになって残り時間が「万分」という表示に いや、それも正確にはLVMが悪いのかそれとも 今回初めてRAID6にしているため、RAID6はパリティ計算が小難しいから 遅いのかよくわかっていなかったりする
21 : バーカ
22 : http://pc12.2ch.net/test/read.cgi/software/1232865288/735 >>教えてください >>質問なんですが外付けのHDDも暗号化できますか? >>2 テラのHDDを4台でハードウエアRAID 0構成したHDDを暗号化して使いたいのですが >>問題有りませんか?
23 : 素直に1.5TBを購入し 500GBは500GBでアレイにした RAID6って初めてだ。こんな感じ。やっとリビルド終わった記念。チラ裏スマソ。 $ cat /proc/mdstat Personalities : [raid1] [raid5] [raid4] [raid6] md2 : active raid6 sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1] sda1[0] 1953535744 blocks level 6, 64k chunk, algorithm 2 [6/6] [UUUUUU] md1 : active raid6 sdm1[5] sdl1[4] sdk1[3] sdj1[2] sdi1[1] sdh1[0] 5860543744 blocks level 6, 64k chunk, algorithm 2 [6/6] [UUUUUU]
24 : 電源とSATAホットスワップベイとマルチプライヤーだけのRMな箱売ってないかなー
25 : いろいろ調べてみたんだが、明確な内容がつかめないので質問します。(調べ方が足りなかったらすまん) CentOSにて /boot RAID1 swap / RAID1+0 として、InstallしたいのだがInstallerには、RAID0, 1, 5, 6 しかないのでInstallerから組むことはできないと思うが Install後に何か手を加えてRAID10でパーティション構築して、/ として使用する方法はない?
26 : FedoraだったらインストーラでRAID10できるんだけどなー
27 : >>25 インストール中にコマンド打って、あらかじめ好きなようにmdを作っておいて、 そこにインストールする、という手順じゃダメ?
28 : >>25 一旦USBメモリとかにインストールして、カーネルを入れ替えてから、好きなような構成に設定したHDDにまるごとrsyncでコピる。
29 : >>24 裸族の雑居ビルじゃだめなんか
30 : ざぞくのらっきょビル
31 : システム:md0(sda1 + sdb1のraid1) + データ:md1(sda3 + sdb3のraid1) という構成でシステムを再インストールしたいのですがどうすればいいのでしょう? 1.sdb1をfail&removeしてmd0から除く 2.sdb1に新システムをインストール 3.sdb1から起動し、元のmd0(sda1のみ)にシステムをコピー&grub設定 4.sda1から起動し、sdbをadd と思ったのですが…1の時点でコケました。 1の直後に再起動したらmd0=sdb1のみと認識されて起動したり(sda1どこ行った?sdbはremoveしたろ?)、 物理的にsdbのみ or sdaのみで起動できたり(removeしているからどっちかコケるのでは?)、 と、ワケワカランとなってしまいました。 # そもそもmd0のシステムを入れ替えてmd1って動くのでしょうか?
32 : > 1の直後に再起動したらmd0=sdb1のみと認識されて起動したり(sda1どこ行った?sdbはremoveしたろ?)、 > 物理的にsdbのみ or sdaのみで起動できたり(removeしているからどっちかコケるのでは?)、 BIOSでの起動ドライブの指定は意図した通りに設定してあんの? 至極まっとうな動作だと思うが 1枚だけで起動できなきゃなんの為のRAID1なんだ
33 : 何をしたいのかさっぱりわからん。
34 : BIOSのHDD起動順序
35 : つか RAIDのレベルで二つに割ってる意味がサッパリ分からん。 ボリューム分けたいなら普通はLVMでやるもんだと思うが。 パフォーマンスが落ちるだけじゃねーの?
36 : LVM挟んだほうが明らかにオーバーヘッドが一枚多いだろw
37 : 明らか か?
38 : 実効"ほぼ"ゼロってのは叩きやすいからね 定量的に考えられない奴が引っかかるから扇動しやすい
39 : パフォーマンスはともかく ディスク故障->交換時にかかる手間暇に関しては LVMで分けた方がずっと楽だな。
40 : LinuxMDでHDD4本でRAID1を2本ずつかけてるんだが、 複数のmdデバイスを同時にresyncかけるのはできるのかな? OSインストール時に二個同時に走ってるのを/proc/mdstatで見たんだけど、 再起動すると一個ずつになってる、、 同時でやれば速く終わるはずなんだけど
41 : >>40 > 同時でやれば速く終わるはずなんだけど むしろ遅くなりそうな気がするが。 同一のCPU、同一のコントローラで 二つの処理を同時に行わせるんだよな?
42 : >>41 そうなんだけども、CentOSインスコ時の裏ターミナルで見たら二本のRAIDペアが同時でMAX近いスピードが出てるんだよ。 resync終了前に再起動すると起動してからresyncが走るけど一本ずつresyncに。 同時並行でresyncできるかmd.txt見てもそんなパラメータないし謎、、
43 : ボリュームの初期化と データが入ってるボリュームのresyncでは 話が全く違うように思える
44 : >>43 もち、買ってきたばっかのブランクHDDです
45 : 単にrcスクリプトの問題じゃねえの
46 : ひょっとしたらmdadmで作成した時だけは同時に走るのかもしれない… で再起動してからは同期が終ってないから普通に順番に走ると。 客先とかで組むと最後まで完了しないと帰れないのでって事情ですw
47 : そういう事情なら 前の日のうちにresync済ませておいたHDDを持ち込めば 再認識させるだけで即座に帰れるぞw
48 : LVMもRAIDに加えられるようなのでちょっと悩み中 今、自宅ファイルサーバの構成が 500GB 2個 1TB 2個 1.5TB 1個 という構成 OSは80GBのHDDに入れている 容量が足りなくなったついでにRAID5を組もうと思い、 1.5TB 2個を追加しようと思っている ここで、A案かB案か迷っている A案 500GB+1TBで1.5TBのLVMを組んで 1.5TB 5個でRAID5を組む B案 1.5TBをfdiskで500GBと1TBのパーティションで切って 500GB 5個と1TB 5個でそれぞれRAID5を組む 今後のディスク追加は1.5TB以上だと思うのでA案を考えているけど、 A案だと再構成に何日もかかるのかな?
49 : どちらかといえばB案かな。大容量での再構成はできれば避けたい。 ただ、両方のボリュームへの同時アクセスでヘッドの取り合いになりそうではある。 このあたりはアクセスパターン次第かと。 もしAなら、LVMにしなくてもlinear arrayでつなげばいい気がしないでもない。 mdXもRAIDに参加できる で、冗長性を保った状態で容量拡張をしたいならRAID1+LVMが一番楽。 大きい容量の新しいアレイを参加させて終わり。ポートが足りなくなったら 一番小さいアレイからデータ掃き出して外す。 うちはこれで、1発250GBの時代から新陳代謝させて 今 1TB RAID1 x 3 + 500GB RAID1 x2 になってる。 このあたりは容量効率をとるかメンテナンス性を取るかの判断かな
50 : 3台のRAID5(md0)を4台構成に変更しようと思い、下のコマンドを実行していくと失敗する。 # mdadm /dev/md0 -a /dev/sdd1 mdadm: hot added /dev/sdd1 # mdadm -G /dev/md0 -n 4 mdadm: Cannot set device size/shape for /dev/md0: Invalid argument ちなみに、md0はLVMに組み込まれています。 今までこのようなことをが起きた事はなかったのですが、どなたかご存知の方、教えていただけませんか?
51 : >>49 > 大きい容量の新しいアレイを参加させて終わり。ポートが足りなくなったら > 一番小さいアレイからデータ掃き出して外す。 参考までに教えて欲しいのだが、この掃き出しというのはpvmoveで 大きいアレイにデータを寄せて、resize2fsでfsを縮小、 vgreduceでLVをVGから外す、という流れでおk?
52 : >>51 減らすときはfs-LV-VG-PVっていうレイヤの上から、増やすときはその逆。 なので手順はresizefs→lvreduce→vgreduce→pvremoveだし、 増やすときはpvcreate→vgextend→lvextend→resizefs
53 : 途中で送信してしまった。 (通常の構成なら)RAID(md)層はPVのさらに下に来る。 あとはLVMスレで頼む
54 : >>52 lvreduceすると自動的にpvmoveされるっけ?
55 : Linuxのmdで、ローカルにATAやSCSIのディスクがつながっていて なんらかの冗長化をしたい、というシチュエーションに限定した話で いいんですけども、 ・ディスク全体でmdを構成して、md上にパーティションをつくる ・パーティション分けてから、パーティションごとにmdをつくる 利点欠点について説明する場面があるんだけど、何を言えばいいだろう。 その気になれば後でどうにでもなるからどっちでもいいや、 とつい思ってしまうんだけど…… 話す相手は「コンピュータには慣れているけど(学問的な意味で) サーバメンテ的なことには詳しくない人」です。
56 : つまり、お前もよく理解していないってこった。
57 : LVMスレへの誘導をもろともしないバカなんだし、許してやれよ…
58 : >>50 > ちなみに、md0はLVMに組み込まれています。 答えが書いてあるんじゃないかって気がする。
59 : >>57 誤:もろともしない 正:ものともしない
60 : >>52 が>>51 への返答になってないことにも気づかず偉そうだな…… > /dev/null
61 : ねぇ、LVMで足らない分をポチポチ足していったら JBODみたいに1つでも壊れたらまずいHDDアレイにならない?
62 : >>48 ですが、A案で構成中に問題が >>49 さんを参考に500GB+1TBをlinear arrayでつないでみたのですが、 OS再起動するとRAID構成から外れてしまう # mdadm --create /dev/md1 --level linear --raid-devices 2 /dev/sdf1 /dev/sdg1 # mdadm /dev/md0 --add /dev/md1 # mdadm --grow /dev/md0 -n 5 これで一旦はmd0に組み込まれるんだが、OS再起動すると/dev/md1が外れる 恐らくOS起動時、/dev/md0を構成するときに/dev/md1が構成されていないからだと思うんだが /dev/md0を/dev/md9としてもダメだった 今度lvmからmd0への組みこみを試してみようと考えているが、 linear arrayでできる方法はないのだろうか?
63 : initrd作り直したか?
64 : ubuntu9.10からのpalimpsestディスクユーティリティつかったソフトウェアRAIDやってる人はいるかい?
65 : まぁFedora11から入ってるから、いるんじゃね?
66 : いやー自動マウントの設定がうまくいかなくてさー
67 : そこそこIOPSの高い数TBのストレージを作りたいんですが、 基本的にはディスク本数を増やすアプローチで良いのでしょうか?
68 : 数TB程度ならSSD並べるだけでいいだろ
69 : swapを冗長化するという話はほとんど聞きませんが、 swap域でディスクエラーが起きたらどうなるのでしょうか? プロセスが突然死するのでしょうか? 暴走することもあるのでしょうか? 一般には、swapを冗長化するデメリットが プロセスが突然死したりするかもしれない心配より 大きいと考えられているのでしょうか?
70 : 別の質問です。 sdaとsdbでraid1を組んだとき、 sdaがあるビットは1だと言い、sdbはそのビットは0だと言ったら 何が起こるのでしょうか?
71 : >>70 これは間抜けな質問だったかもしれません。raid5などと混同していました。 無視してくださって結構です。
72 : >>69 前半 YES。ただそれが問題になる場合は、スワップをしないように最大まで メモリを載せる。スワップしたら負け。
73 : >>72 早っ。 今までスワップは、とにかくするもんだと思っていましたが、吹っ切れました。
74 : >>69 実際にやってみた。 物理メモリにマッピングされているページを、わざとスワップアウトさせた状態で: sudo /bin/sh -c 'cat /dev/zero >/dev/<swap>' ええ、フリーズしました。 どうしたらよいでしょうか?電源ボタン長押しでいいですか?
75 : 物理メモリの延長と考えればメモリの破損だからなあ そりゃ止まるよね
76 : でもさ、ユーザ空間のプロセスなんてカーネルに管理されているんだから 強制的に終了させられることは珍しくないじゃん? だからさーそういう例外を予測して、完全には無理だろうけど、 フェイルセーフな方向に失敗させるのがプログラマの仕事じゃないかな?
77 : OSとアプリの責任分界をまるっきり無視だなw
78 : 初心者なのでこのスレには不似合かもしれないんですけど 緊急事態なので教えてください REID0を組んでるのですがマザーが逝ってしまったらしく BIOSまで行き着かず電源が落ちてしまいます なんとかHDのデータだけでも救出したいのですが ほかのマザーでもREIDのHDは認識しますか? 可能でしたらその手順も教えていただけたら... お願いいたします
79 : ソフトRAIDなのかハードRAIDなのか。 ハードなら同じハードを揃える。 ソフトなら移し変えるだけ可じゃね? もうちょっと環境詳しく。
80 : >79 ありがとうございます DELL DIMENTION 9100のBTOのメーカー設定のソフトウェアREIDです 自分としては他のマザーで大丈夫なら 今時のマザーとCPUを購入して他のパーツを流用できれば理想なのですが 同じマザーでなければ無理なようでしたら ヤフオクで純正のマザーを落とそうかと思ってます
81 : WindowsXPモデルしか無いみたいだけどここはLinux板だよ。
82 : REID て。
83 : ローマ字入力してる人に多いタイプミスだから気にしない… (わたしは親指シフトだから…笑)
84 : タイプミスだろうが何だろうが繰り返してる上に直す気がない時点でダメ認定済みなわけだが
85 : RAID0でデータを救出って時点で頭おかしいね RAID0はなくなってもいいデータを入れるものだろうに
86 : >RAID0でデータを救出って時点で頭おかしいね ディスクが逝かれたってことじゃないみたいだし、 そこは別にいいだろ。
87 : 質問です 元々 本体:eSATAカード増設 外部ストレージ:PMP対応のeSATA接続の箱にHDD2本(sdc, sdd)でRAID0 OS:fedora 11 の構成のサーバにfedora12をクリーンインストールしました。 インストール後、sdc、sddとも見えてて、sdc1、sdd1の各パーティションも0xfdで見えてますが、 RAID0の状態では見えていない状況です この状態でRAIDの組みなおしは可能でしょうか?
88 : 意味不明
89 : たぶん, sdaにFedora11入れてて,sdc,sdcをSoftRAIDしてたのが, sdaをFedora12にしてSoftRAID設定が消えちゃったって 言ってるみたいだね〜 Fedoraに強い人!助けて〜(笑
90 : >>87 まず確認してほしいけど、起動後に、 mdadm -A /dev/md0 /dev/sdc1 /dev/sdd1 とすると、RAID0のアレイは動くんだよね? それで動かないようなら、dmraidが悪さをしている可能性がある dmraid -r としてみて、/dev/sdcや/dev/sddが出てくるようならそれに該当する
91 : ソフトウェアRAIDで、dmraid って、ググっても古い記事しか見つからないんだけど、今でも再構築周りの不安定さってあるんでしょうか。確実に再構築できることを求めるなら、やっぱり md で組むべき?
92 : >>91 逆にdmraidを使いたい理由を教えてほしいんだけど Windowsとかとアレイを共用してるとか? それとも最近のマザーにはparity計算するハードとか載ってるのかな? 枯れてるという意味でも、柔軟性でもmdの方がいいと思うけどな たとえば、マザーが壊れたとかした場合、dmraidだと移行が面倒 mdだとそんな制限ないし、スーパーブロックの構造もわかってるので、壊れても なんとか修復できたりする
93 : >>90 返信ありがとうございます。 fdiskではsdc1、sdd1とも0xfdで見えていたのでデバイスファイルもあるものだと思い込んでいましたが /devを見たところsdc1、sdd1ともない状況でした 現在はcat /proc/devicesを見たところ、sdのメジャー番号が8でしたので、mknod b 8 XX /dev/sdc1 とやってみたところinvalid major number '8' とでてきて詰まってる状況です ちなみにmdadm -A /dev/md5 /dev/sdc /dev/sddを実行した結果を貼り付けて見ます [root@sv1 ~]# cat /proc/mdstat Personalities : [raid1] md5 : inactive sdc[1](S) sdd[0](S) 4514 blocks super external:imsm
94 : >>93 >fdiskではsdc1、sdd1とも0xfdで見えていたのでデバイスファイルもあるものだと思い込んでいましたが >/devを見たところsdc1、sdd1ともない状況でした あり得ない。じゃあ、fdiskは何のファイルをオープンしてるんだよって話だ 実際そうなんだというなら、 strace fdisk /dev/sdc の結果を張ってみてくれ >現在はcat /proc/devicesを見たところ、sdのメジャー番号が8でしたので、mknod b 8 XX /dev/sdc1 >とやってみたところinvalid major number '8' とでてきて詰まってる状況です その「XX」が合ってるかどうか気になるな デバイスファイル作るなら /dev で ./MAKEDEV sdc としてみたら?(余計なファイルもいっぱいできるけど) まぁ、いずれにしても通常はudevが作るわけだし、mknodできないとすれば別の理由か mount の結果と dmesg の結果でも張ってみてくれよ(dmesgは長いからsdc、sddの認識部分だけでいいや)
95 : >>94 自己レス ちょっと勘違いしてた 状況を整理すると、/dev/sdcと/dev/sddは存在しているわけだな。んで、/dev/sdc1と/dev/sdd1がないと パーティションテーブルが壊れているのか、非互換なのか…という感じですか とりあえず fdisk -l /dev/sdc fdisk -l /dev/sdd の結果と、dmesgのsdcとsddの認識部分のログが見たいですな
96 : >>95 度々すみません # fdisk -l /dev/sd[c,d] ディスク /dev/sdc: 500.1 GB, 500106780160 バイト ヘッド 255, セクタ 63, シリンダ 60801 Units = シリンダ数 of 16065 * 512 = 8225280 バイト Disk identifier: 0x00072abe デバイス ブート 始点 終点 ブロック Id システム /dev/sdc1 1 60801 488384001 fd Linux raid 自動検出 ディスク /dev/sdd: 500.1 GB, 500107862016 バイト ヘッド 255, セクタ 63, シリンダ 60801 Units = シリンダ数 of 16065 * 512 = 8225280 バイト Disk identifier: 0x00095176 デバイス ブート 始点 終点 ブロック Id システム /dev/sdd1 1 60801 488384001 fd Linux raid 自動検出 (続く)
97 : (続き) # dmesg | grep sd[c,d] sd 6:0:0:0: [sdc] 976771055 512-byte logical blocks: (500 GB/465 GiB) sd 6:0:0:0: [sdc] Write Protect is off sd 6:0:0:0: [sdc] Mode Sense: 00 3a 00 00 sd 6:0:0:0: [sdc] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA sdc: sd 6:1:0:0: [sdd] 976773168 512-byte logical blocks: (500 GB/465 GiB) sd 6:1:0:0: [sdd] Write Protect is off sd 6:1:0:0: [sdd] Mode Sense: 00 3a 00 00 sd 6:1:0:0: [sdd] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA sdd: sdc1 sd 6:0:0:0: [sdc] Attached SCSI disk sdd1 sd 6:1:0:0: [sdd] Attached SCSI disk >その「XX」が合ってるかどうか気になるな # ll /dev/sdc brw-rw---- 1 root disk 8, 32 2010-02-13 15:31 /dev/sdc となっていましたのでマイナー番号は33を指定してました
98 : >>96 >>97 fdiskの結果もおかしくないし、デバイス認識にも問題ない mknodのマイナー番号指定もおかしくない(33であってる) だけど、/dev/sdc1の作成には失敗するし、そもそもudevでの自動認識もできないわけですか どうにも謎ですな PMPに接続しているHDDをマザー上のSATAポートに接続しなおしてテストしてみるというのはどうでしょう ある程度問題の切り分けが可能かも。または、別のHDDを接続して、区画設定からやり直すとか SELinuxが何かしてる? restorecon -R /dev してみるとか(これで解決するとも思えんが…)
99 : >>92 いえ。dmraid の方が高速だって記事を見かけたことがあるもので(ソースは失念しました)、安定してるなら入れてみようと思っただけなんです。
100 : >>99 どっちも似たような処理をするわけだし、dmraidの実装が極端に優れているとかでなければ、速度差はそれほど期待 できない気がするなぁ。ちょっとググってみたけど、明確な性能差があるという最近のベンチ結果は見当たらなかった (あまりしつこくは検索してない) もしも速度差があるとすれば、dmraidがやるべきことをやっていないとかじゃないの? dmraidのソース見たけど、未実装な機能であるとか、「more sanity check」とかのコメントが結構あったよ mdでは、最近、バリアの実装が全RAIDレベルで完了したみたいだし、安全性考えるならばmdでしょ そもそもdmraidではRAID 4/5使うにはまだカーネルにパッチを当てないといかんし、RAID 6に至っては未サポート その上、ハード依存性もあるとなっては、俺なら多少の速度差程度では使う気にならんなぁ もちろん使ってみてベンチマークとか取って報告してくれると嬉しいが
101 : 質問があります.長文ですがよろしくお願いします. 現在Vine linux 4.2 でファイルサーバを構築しています. mdadmにて1.5T3台でRaid5の状態から,もう一台追加で 1.5T4台にしようとしたのですが, # mdadm --manage /dev/md1 --add /dev/sdb1 mdadm: added /dev/sdb1 の後に--growを行ったところ # mdadm --grow /dev/md1 --raid-disks=4 mdadm: Need to backup 384K of critical section.. となりエラーになります. 簡単に調べたところ,海外のサイトで カーネルが2.6.19以降でないとraid5のgrowができないとあったので Vine4.2のカーネルが2.6.16なのが原因だと考えていますが それであっているでしょうか? また,カーネルが問題なら,Vine5は文字化けの問題その他で アップグレードを躊躇しているので これを機に他のディストリに移行しようかと思っています. このときにRaidのデータを残したまま移行する方法はありますか? もしあれば教えていただきたいです.
102 : >>101 raid5のgrow対応は2.6.17からじゃなかったかな。いずれにしても2.6.16なら駄目かな んで、これはエラーじゃなくて、正常時にも同様のメッセージが出るよ >mdadm: Need to backup 384K of critical section.. >これを機に他のディストリに移行しようかと思っています. >このときにRaidのデータを残したまま移行する方法はありますか? 基本的にどのディストリであっても、そのまま移行できます でも何があるか分からないから、バックアップは取っておきましょう
103 : >>101 Vine4.2で 1.5TB x 6 のRAID6 500GB x 6 のRAID6 やってますよ。 過去にはRAID5 500GB x 4 をGrowで 500GB x 6にしたり普通にやってました。 Linux ***** 2.6.16-76.40vl4 #1 SMP Sun Nov 9 04:43:51 JST 2008 i686 athlon i386 GNU/Linux 普通にできるからガンガレw貴重なVineの友w
104 : >>101 カーネルのバージョンに加えてmdadmのバージョンも問題(2.6以上じゃないとダメ)。 Debian etchはカーネルが2.6.18なんだけどmdadmが2.5.xだったのでRAID5のgrowができなかった記憶が。
105 : 皆さん早速の返事ありがとうございます. >>102 すいません,一行コピーできていませんでした. エラーは3行目だと思います. # mdadm --grow /dev/md1 --raid-disks=4 mdadm: Need to backup 384K of critical section.. mdadm: Cannot set device size/shape for /dev/md1: Invalid argument です.早速カーネルをあげてみます. >>103 あなたもVineですか. Vineは最近話題に上ることが少なくなった気がしたので 仲間がいると分かってうれしいです. 私もできるならVineのままでいきたいのでもう少しがんばってみます >>104 mdadmのバージョンは考えてもみませんでした. 確認したところ mdadm - v2.5.5 - 23 October 2006 でしたので,こちらもバージョンアップします. 早くやりたいけど,まだ家に帰れない...
106 : >>105 過去の自分の作業ログを見たところ 500GBx4→500GBx6のときはraidtools、 1.5TBx4→1.5TBx6のときは http://piro791.blog.so-net.ne.jp/2008-11-07 ここを参考にやってました。 がんばってください。 自分のmdadm も2.5.5でバージョン全く同じです。
107 : でもVine 4.2なら直にメンテナンスされなくなるし、 いずれは5.xに行くか他のディストリに移る必要があるよ。 5.xへの移行はデフォルトの文字コードその他、 他のディストリに移行するのと大差ない面倒があるので俺は結局CentOSに移った。 RedHat系なら yum の使い方覚える必要がある程度で Vineでのノウハウがそのまま使えるし大した問題はない。 確か俺もVineでは growがうまく行かなかった記憶がある。 その時は調べた結果「ああ、kernel が古いのか」で納得したと思う。 >>103 が「普通にできる」てのがちょいと信じ難いが… >>103 の kernel はいくつなのかな? ま、Vineにはつきもののこの手のトラブルが皆無になるし 将来のことを考えると結局は他所へ移った方が楽だと思う。 メジャーなディストリだとトラブル時にネット上での情報量が多いしね。
108 : >>100 あーソースまではチェックしてなかったです。 ううむ。未だにその状況だと実運用に使えるようになるのは当分先ですね。 今自宅にPCないので手軽にベンチがとれる環境を作れないんです。個人で借りてるサーバーに突っ込んでみようかと思っていたのですが、今回は見送ることにします。 ありがとうございました。
109 : RAID1を構成するディスクを読んだら、それぞれ違う値を返した、 ということはあり得るのでしょうか? このとき物理的なエラーは検知できなかったとします。
110 : >>70 の質問をした者です。 結局同じ質問になっていたことに気付きました。 質問を変えます。 RAID1に'a'と書きこんだのに、続けて同じ場所を読んだら'b'となっていた。 このとき物理エラーは検出されなかった。ということはあり得るのでしょうか?
111 : ハードもソフトも人間が作ったもんだから、 「ありえるか」って言えば、ありえるんじゃね? ところで、mdadm --detail /dev/md0 の結果でさ、 Events って何なんだろうね。 manpage 見ても、よくわかんなかったよ。 Events : 0.40 Events : 0.70880 Events : 0.26 Events : 0.60 4 台とも RAID1 のサーバだけど、いろいろ違うもんだね。
112 : 低熱高熱状態でのHDDに書き込んだデータの化けはありうるわけだし だからRead After Writeを実装してるHDDもあるし こんとき物理エラーは検出されん つか出来ん
113 : >>111 質問が下手すぎました。 >>112 どんな強力なRAIDでも、物理エラーとして検出されないエラーを修復することは できないのですね。そういうことを気に病むより、SMARTなどの対策を打ったほうが いいと思うようになりました。
114 : 今HDDのヘッドが読み出すときのビット誤り率(BER)は10-9程度 最近はエラー訂正に頼る傾向があるから、リニアでは10-6程度と逆にエラー発生率は高くなってる でも逆に符号訂正の技術が高くなっているから、実際に伝送路に乗る品質は10-15乗以上にもなる この次元の値のエラー率になると、もはやメモリーやバスやCPU、強いてはRAIDカードのコントローラーに乗るノイズで発生するエラーの確率のほうが高い。 それでもハードディスクの誤りが怖いというのであれば、次世代の量子コンピューターの登場まで待つんですな。
115 : >>114 ありがとうございます。勉強になりました。
116 : WD20EARSでmd RAIDやってる人はいませんか? RAIDパーティションを64セクタ目から作成して、mdのストライピングサイズを64KBで 作成したとします。 mdに加えたHDDのRAIDパーティションの先頭にはmdの情報が保存されていると思います。 mdとして実際に使える先頭セクタは、md情報が保存されている次のセクタからだと思います。 実際に使える先頭セクタの場所が8の倍数でない場合は、WD20EARSをWinXPで使う場合と 同じようにパフォーマンスダウンするのではないかと思っています。 これってどう思いますか? 各HDDにおけるmdの情報が4096bytesの倍数であれば多分問題ないんだろうと思うんですけど。
117 : 5行目を訂正します。 誤:mdとして実際に使える先頭セクタは、md情報が保存されている次のセクタからだと思います。 正:mkfsにとって実際に使える先頭セクタは、md情報が保存されている次のセクタからだと思います。 言いたいことって、伝わりますか? うまく言語化できない。
118 : ttp://lkml.indiana.edu/hypermail/linux/kernel/1003.1/03467.html ttp://lwn.net/Articles/377895/
119 : >>118 このリンクはLinuxにおける4096bytesセクタに対する考察なだけっぽい気がします。 うまく言いたい事を表現できない自分が悪いんですけどね。 たとえば1つのmdパーティションにmdの管理情報が4096bytes必要だとします。 それならば次のセクタから64KBでストライピングしても、別にセクタをまたがった アクセスにならないので問題ないと思います。 もし管理情報が2048bytesだとしたら、セクタをちょうど二つに分けた形で ストライピングされてしまうので、強烈なパフォーマンスダウンになると思います。 ここまで書いて、どう書けばいいのかわかりました。 RAIDパーティション当たりのmd管理情報って何KBなんでしょうか?
120 : 一番の誤解はmdのスーパーブロックは末端に在るってことかな
121 : バージョン0.9/1.0の場合だこれ 1.1/1.2だと先頭だわ 詳細はmd(4) mdadmは0.9がデフォルトだけども
122 : >>120 で、すげえ!やったネ!って思ったけど >>121 なんという改悪でしょう。 man見てみましたけど、私には分かりませんでした。 考えてみたら、mdの管理情報が問題ないとパスできたとしても ext3の管理情報サイズまで考えないといけないですよね。 WD20EARS買うのをやめようかな〜。 安いから特攻しようかと思ったんですけど。
123 : 知っている人に質問。 3wareの7000とか9550のSATA RAIDボードに既存のデータが保存されたHDDをつなげるとき、UNITの構築しなくても /dev/sdc1 とかでマウントして利用できる? Single DiskとしてUNIT構築を行おうとすると、既存のデータが破壊されますけどどうします?と聞いてくるんで。
124 : >>123 3ware使ってないけど、大抵のRAIDカードは管理用の情報をHDDに書き込むから 単体HDDとして使う場合も中身は壊れるよ。 3ware使ってる人に聞きたいのならこっちのスレのほうがいいかも RAIDカードあれこれ 39枚目 ttp://pc11.2ch.net/test/read.cgi/jisaku/1263703844/
125 : >>124 ありがとう。了解した。 該当スレ誘導も感謝。
126 : linuxのソフトウェアRAIDの話です。 mdadm.confを使わずにRAIDデバイスを起動した場合は、OSの停止前に明示的にmdadm -Sを 実行する必要がありますか?
127 : >>126 終了動作でファイルシステムのメタデータ吐く、 そのあとmdのスーパーブロック書き出して同期を停めるでしょ。
128 : raid 1+0 と 6が使える環境で、おまいらはどっちを選択する?
129 : おまえならどっちもいっしょ
130 : 自作板で聞こうかとも思ったのですが、こちらの方が経験者が多そうなので質問させてください。 会社でCentos 5.4、Raid1でファイルサーバー立てようと思うのですがお勧めのRAIDカード教えてもらえないでしょうか ただし予算はHDも合わせて2万円以内です。 先日ソフマップで、1.5TBのHDが8千円くらい、1TBが7千円くらいで売ってたので HD2基で14000円〜16000円くらい そうするとRAIDカードの予算は4000円から6000円くらいしかありません 玄人志向のSAPARAID-PCIやSATARAIDが2000円前後なので、それにしようかとも思ったのですがCentosで使えるのかなあと 実はこれまで職場ではIOのNAS使ってたのですが、頻繁に壊れるので何度かLinuxでデータをサルベージしてました RAID対応のNASに買い替えようとも思ったのですが、企業向けはコストかかるのでどうせならファイルサーバーに1本化しようかなと これまでCentosをのせていたPCは、玄人志向のATA133RAID-PCIのカードを取り付けRAID1で使用していましたが 160GBしかHD乗せて無かったので業務で使うには容量が足りず、データの受け渡し用にだけ使っていました。 構成はサーバー用にDELLの5〜6年くらい前のPC (CPU PENTIUM4 2.4GHZ、メモリ768MB PCIバス) クライアントPCのOSはWindows XP、7、2000、Mac OSX 、Mac OS9など20台ほど(使用する人間は10人程ですが) 本当なら業務で使用するのだから、もっと高価なシステムを組むべきなのは重々分かっているのですが 何せ零細企業な上、私の裁量で稟議が降りるのが以前は10万だったのが、2万に減ってしまって(涙 それとも、この程度のクライアント数ならソフトRAIDにすべきでしょうか ソフトRAIDでミラーリング組むと速度が落ちると聞いたのですが(聞きかじりです) 私の知識不足と長文申し訳ないですが誰か答えてくださるか誘導してくださると助かります。 よろしくお願いいたします。
131 : 金が無いなら知恵を死ぬ気で付けるしかない。 (最低このスレ全部読むくらいはやるんだろ?) ってことはさておき、md使ったソフトウェアraidで良い。 カードもRAIDなんちゃらなんて付いてなくてATAカードで十分。 玄人志向だと以下から適当にどうぞ。 http://www.kuroutoshikou.com/products/select/interfacefset.html
132 : 「ちゃんとした」ハードウェアRAIDカードを買う予算(8〜10万程度) がないならソフトウェアRAIDを選択すべきだろうね > ソフトRAIDでミラーリング組むと速度が落ちると聞いたのですが(聞きかじりです) 実際に試してみりゃいいじゃん。 「これまでCentOSを載せていたPC」とやらがあるんだろ?
133 : >>131-132 ありがとうございます。 いろいろめんどくさい条件書いてすみませんでした。 ソフトウェアRAIDでいってみます。
134 : ソフトウェアraidのほうが部品点数が少ない分、故障も少なく可用性が高くていいな。
135 : 前スレに出てたけど HDDが一個故障したらOSごと落ちちゃうような (RAIDの意味がない)トラブルが起こる可能性は HW RAIDより高いけどなw
136 : 前スレのどこにそんな事例があったのかソースくらい欲しいものだな
137 : >>431-441
138 : そーだな。5000円のカードよりは10万円のカードの方がマシだな。
139 : >>135 前スレのはIDEのドライバの出来に影響されるって話だね。 SATAでも、ポートを増やすのにクロシコのカードを何枚も使ってたら可用性が高いとは言え無いだろうねw でも最近のHW RAIDカードはSAS用に傾いてるから、SATAのHDDとの互換性の問題が多いんだよね。 エンタープライズモデルのHDD以外のサポートを拒否してるarecaとかね。 俺はarecaも使っててHDD選びですごい苦労してるんで、 その点ソフトウエアRAIDだとHDDは何でも良いんで楽でいいよw
140 : > 前スレのはIDEのドライバの出来に影響されるって話だね。 コントローラ次第、という話であって、ドライバの出来に限定した話ではないかと。 (ドライバも要素の一部ではあるが) 俺はSW RAIDの一番のメリットは可用性ではなく、 HW環境に依存しない、という点だと思ってる。 (経験上、停めずに使うという点ではむしろHW RAIDの方が有利) HW RAIDの場合、万一コントローラが故障した場合、同じ機種を調達しないと アレイの中身の読み書きができなくなってしまう。 (同じメーカーでも別機種だと大抵はアレイの完全互換を保証していない) 既に調達不能になっている場合はどーしようもない。 仮に予備が買ってあったとしても、一台故障したらもう「次」はない訳で。 SW RAIDなら、OSがLinuxである限り、HDDとして認識してくれりゃHWはなんでもOK。 取り敢えず適当なPCに取り付けてやれば、アレイの読み書きは可能になる。 非常時のことを考えると、この差は大きい。 ま〜結局は、運用コストの差、という話ではあるがw
141 : >>122 mdadmのmanページ、-eオプションのところにバージョン毎の違いが書いてある。 ストライピングに関する記憶は朧げだけど、メタデータはmdデバイスではなく、 コンポーネントデバイスに書き込まれるため、ストライピングの対象にならない。 はずなんだけど、自信がないな。 mdadmはdefault==0.90だけど、ディストロのパーティション管理では、 異なることがある。例えば、openSUSEはRAID1の場合は1.0だった。
142 : だから並盛を安くするんじゃなくて、大盛りをもう少し安くて 特盛りをもっと安くすればいいんだよ。 どうせ客層なんて男ばっかりなんだから。
143 : ごめんとしか言いようがない。
144 : 男がみんな大食いだと思ったら間違いだ。
145 : >>142 よかったな ttp://getnews.jp/archives/55557
146 : >>130 亀レスで何だが、使用者が10人程度なら 可用性よりバックアップを優先すべきだと思うが バックアップはしてるの? サルベージしているなら怪しいと思ってるんだが。。。
147 : raid1壊れますたorz syslog↓になんかずらずら出てるんですが、意味わかりませんorz http://loda.jp/vip2ch/?mode=edit&edit=432 半年ぐらいしか使ってないディスクなんですが物理的にイカレてしまったのでしょか? Jul 20 10:35:11 orz kernel: [ 6174.320131] ata3.00: model number mismatch(略) あたりマトモでない気がしますが… ディスクから異音とかはないです よろしければアドバイスお願いします
148 : >>147 エラー出てるね > ata3: SError: { 10B8B Dispar BadCRC LinkSeq TrStaTrns UnrecFIS } 下記サイトによれば、SATAケーブルor電源が怪しい ttps://ata.wiki.kernel.org/index.php/Libata_error_messages#SATA_SError_expansion >These bits are set by the SATA host interface in response to error conditions on the SATA link. >Unless a drive hotplug or unplug operation occurred, it is generally not normal to see >any of these bits set. If they are, it usually points strongly toward a hardware problem >(often a bad SATA cable or a bad or inadequate power supply). 個人的には熱暴走とかもありうると思うけど
149 : >>147 こりゃ完全にケーブルだ。 もしSATAケーブルがノッチ無しなら、ケーブルの両端を洗濯バサミで一晩挟んどけ。 結構効く。
150 : こんなどうしようもない対策がなるほど効いてしまうだろうなぁと思える SATAコネクタ仕様を考えた奴はケーブルで首吊って詩ねばいいのに
151 : SATAケーブルで吊るなんて出来ないだろ…と, 思ってたら, 隣の国で, 携帯のケーブルで吊った還流スターが居るの思い出して 涙が出ちゃったじゃないかー!そんなこと言うなよ〜 後付けの抜け防止金具とゆーものが無かったっけ?
152 : >>149 「ラッチ」のことか?
153 : >>150 こんなんだしなあ USBの方はケーブルにも認証試験を行うようになったのにな http://pc.watch.impress.co.jp/docs/column/interface/20100722_382306.html >この話は別に今に始まったわけではなく、Gen2の頃からこうした問題は出ていたが、SATA-IO自身はこれに関して特に動く予定は無いというか、 >たとえばコンプライアンステストを通った製品にロゴを付加するといったキャンペーンは(過去に販売したケーブルは使えない、と言っているのと同義語なので) >むしろ相互運用性を損なう事になりかねないとしており、 >引き続きケーブルに関しては、ごちゃごちゃのままの環境が続くことになりそうである。
154 : >>148-153 みなさんアドバイスありがとうございます SATAケーブルが怪しい件了解です 機械のフタ開けて SATAケーブルのコネクタを確認してみることにします 今日はもうマンドクサwなので明日ぐらいにでも ガシッとはめて直ったらいいなと期待しています では〜
155 : >>154 ガンバレ syslogにハードディスクデバイス関連のタイムアウトが頻発したらケーブルを疑う癖をつけるんだ。 SATAケーブルとの約束だぞ。
156 : お手数かけますが、教えてください。 Debianです。 現在、SATA HDD8台、ソフトRAID6で運用中,。 HDDはオンボ4ポート、PCI SATAカード4ポートです。 SATAカードをPCI-eのSAS6iRに交換して、8ポートともSATAカードから接続したいと思います。 最終的には、SAS6iRに8台接続してデータはそのままで元の状態に戻したいのです。 どういう手順で行えばいいのでしょうか?
157 : Debianもudevなんだからそのまま新カードに挿して Grub入ってるのBIOSで一番にしとけばいんじゃねの?
158 : >>156 ディスクが接続されてるコントローラを意識しなくてもokだと思うが。 俺の場合、 1.C3-800MHzのPCにPromise SATA300TX4にSATA HDD×3を接続し、RAID5アレイ構築 2.パリティ計算の余りの遅さに耐えかねて(CPUファンもぶっ壊れたし)GA-D510UDを導入 3.GA-D510UDのオンボードSATA(NM10統合ので2ポート, JMicronので2ポート)にHDDを4台接続 4.もう1台ディスクを足してオンライン領域拡張 5.オンボードSATAはホットスワップが効かないことが判明したのでPCIスロットにSATA300TX4を挿してHDDを繋ぎ替え というステップを経て現在に至るが、繋ぎ替えてもすんなりアレイを認識してたぞ。
159 : >>156 RAIDボードのBIOSからExpoprt JBODとかか? PromiseだとJBOD利用でも必ずBIOSからUnitを作成しないとデバイスが認識しなかった。
160 : Promiseは平然と「1台構成でもアレイ組まなきゃ見えませんから^^」とか言い出す基地害板だからな
161 : HardRAIDカードって壊れたときの対処ってどーなんすか? HDD2個でRAID1使ってた場合 復旧不可能?
162 : 何がどう壊れたかによって話が変わる 漠然と言われても
163 : >>160 HighPoint RocketRAID 2300とかは「1台でもアレイ組め」に加えて、 POSTの際に繋がってるディスクのデータを(アレイのメンバじゃなくても問答無用で)壊すけどな!
164 : >>163 それ嘘だ。 イニシャライズせずにレガシーのまま使えばアレイ組まなくても使える。
165 : >>164 1台でもアレイ組めは俺の記憶違いか。すまん。
166 : >>165 いやいや、結構はまりやすいよ。RAIDボードでのSingle DiskとJBODの設定は。 前者はハードディスクを消去するボードもあるし、後者もJBODでもUNITを作成しないとハードディスクを認識しない等。 俺もいろんなメーカーのRAIDボードメンテナンスしていたが今でもごちゃごちゃ。 一番楽なのはLinux SoftwareRAIDだな。
167 : みなさんの言うとおり、SAS6iRを挿しそのままHDDをつなぎ替えて起動してみましたところ初めからHBAとなり、何もせずに移行できました。 ありがとうございました。
168 : ベンチ計測してみた。 SAS6iR HDD8台(WD10EADS) ソフトウエアRAID6 hdparmでread測定したら、251MB/sだった。 たぶん遅い部類なんだろうな。
169 : >>168 多分バス速度で頭打ち。
170 : ttp://hellokitty68.main.jp/wiki/Linux_Software_RAID5 ここを参考にしてraid1からraid5へ移行する実験をしてるのですが、 echo raid5 > /sys/block/md0/md/level の段でこけます。 -bash: echo: write error: デバイスもしくはリソースがビジー状態です となります。 viしてもE667 : Fsync failedでやっぱり変更できません。 原因や対策をご存知の形はいらっしゃいませんか? OSはCentOS5.5、Fedora13の両方で試しましたが同じような状況です。 環境はVM上です。
171 : http://itpro.nikkeibp.co.jp/article/Keyword/20091106/340168/ そもそもそんなことが出来るのを今知った
172 : Fedora12の5→6はecho raiid6 で行ったがなぁ addした後で # mdadm --grow /dev/mdXn --raid-level 5 --raid-devices=3 --backup-file=どっか で行かんかな
173 : >>170 情報が少なくてよくわかんない とりあえず、以下のコマンドの実行結果を貼ってくれれば何かわかるかも # cat /proc/partitions # cat /proc/mdstat # mdadm --detail /dev/md0
174 : >>170 ちゃんとrootユーザで実行したか? sudoで実行しても蹴られるぞ。 $ sudo -s でrootになってもう一度実行してみて。
175 : >>170 です 参考にしていたサイトがSUSEを使ってやったようなので、 ためしにSUSE11.3で同じようにやったら問題なく出来ました。 実際にCentOSで500GBのRAID1を組んでるファイルサーバーを 将来的にRAID5で運用したいと思い実験をしています。 ですのでCentOSで出来るようになるのが目標です。 >>172 もうしわけないです。 --backup-fileオプションの使い方が良くわかりませんでした。 勉強します。 >>173 次のレスに貼り付けます。
176 : # cat /proc/partitions major minor #blocks name 8 0 8388608 sda 8 1 104391 sda1 8 2 522112 sda2 8 3 7759395 sda3 8 16 4194304 sdb 8 17 4192933 sdb1 8 32 4194304 sdc 8 33 4192933 sdc1 8 48 4194304 sdd 8 49 4192933 sdd1 9 0 4192832 md0 # cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdd1[2](S) sdc1[1] sdb1[0] 4192832 blocks [2/2] [UU] unused devices: <none>
177 : # mdadm --detail /dev/md0 /dev/md0: Version : 0.90 Creation Time : Fri Sep 3 23:42:20 2010 Raid Level : raid1 Array Size : 4192832 (4.00 GiB 4.29 GB) Used Dev Size : 4192832 (4.00 GiB 4.29 GB) Raid Devices : 2 Total Devices : 3 Preferred Minor : 0 Persistence : Superblock is persistent Update Time : Fri Sep 3 23:58:31 2010 State : clean Active Devices : 2 Working Devices : 3 Failed Devices : 0 Spare Devices : 1 UUID : 5e7be737:36419030:20c51d1d:ba7d4872 Events : 0.2 Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdb1 1 8 33 1 active sync /dev/sdc1 2 8 49 - spare /dev/sdd1
178 : >>174 もちろんrootです。 今再確認してやってみましたがやはりrootでもダメでした。 # fuser /sys/block/md0/md/level ってやっても結果が返ってこないから プロセスが使ってるとかではないように思います。 それともfuserの使い方間違えてるのかなぁ・・・
179 : >>178 ブロックデバイスの3重RAID1に変換してから、3デバイスのRAID5に変換してみて。
180 : >>171 には、カーネル2.6.30以降とか書いてあるのだが CentOSは2.6.18とかだろ? Fedora13で不可(>>170 )というのはわからんけどね。 正確にどのバージョンから可能になるのか、俺は知らないが。
181 : >>179 # mdstat --grow /dev/md0 -n 3 をやるってことですよね? その後、 --glow -l 5とかやってもダメでした。 例のファイルへのechoも相変わらず蹴られます。
182 : >>180 年末〜来年明け頃リリースされるであろう EHEL6(Kernel2.6.32)ベースのCent6待ちと勝手に予測
183 : >>181 残念ながら、>>180 の指摘のとおりCentOS5のカーネルが古くてダメっぽい CentOS5の環境にRHEL6のカーネル(2.6.32)だけを(無理やり)入れて、 2.6.32で起動すればRAID1->RAID5に変更できた。 RHEL6のカーネルは↓のSRPMからCentOS5上でビルドしたけど超面倒だった ttp://ftp.ne.jp/Linux/distributions/redhat/ftp.redhat.com/rhel/beta/6/source/SRPMS/kernel-2.6.32-19.el6.src.rpm データのバックアップを取ってRAIDアレイを作り直した方が安全&確実
184 : Fedora13(今は2.6.34)で出来ないのがホント不可解だよね metadata 0.90が悪いのかと思ったけど手元ではそんなこと無いし
185 : fedora13のインストーラーのカーネル(2.6.33.3-85.fc13.x86_64)でも 普通にRAID1→RAID5に変更できたよ >>170 のfedora13で出来ないってのは何かの間違いだと思う
186 : >>170 です >>182 いや、そうならそうで早く出て欲しいですね。。。 >>183 ビルドしたってことはrpm -ivh ではないんですよね? カーネルの構築はLinuxを弄り始めた頃に挫折して、 それ以来一度もやってなくて苦手意識ありありです。 もしよければさわりだけでも教えていただけますか? ググったところ、ここが参考になりそうとは思ったのですが。 ttp://www.atmarkit.co.jp/flinux/rensai/linuxtips/a113rebuild.html >>184 >>185 うーん、もしかしたら僕の作業に間違いがあったかも知れません。 もう一度やってみます。 SUSEインストール→Raid5に変更→CentOSインストールしなおし で出来たにはできたけど、これはちょっと非現実的ですよね。 目標は現在のOSのままやりたいので。 その点では>>183 さんのように Raid変更のためだけにカーネルだけ変えて起動するっていうのが いいような気がしました。
187 : >>186 knoppixみたいなLiveCDは? 一応手順も貼っとくけど、自己責任でヨロ 0. kernel-2.6.32-19.el6.src.rpmをダウンロード (/root/kernel-2.6.32-19.el6.src.rpm) 1. ディレクトリ準備 # cd /usr/src/redhat # mkdir BUILD RPMS SOURCES SPECS 2.SOURCESディレクトリでSRPMを展開(何故か、rpm -iで入れようとしたらCRCエラーと言われたので) # cd /usr/src/redhat/SOURCES/ # rpm2cpio /root/kernel-2.6.32-19.el6.src.rpm | cpio -id 3. config-genericを編集 # vi config-generic →以下の2行を追加 CONFIG_SYSFS_DEPRECATED=y CONFIG_SYSFS_DEPRECATED_V2=y 4. kernel.specをSPECSディレクトリに移動&編集 # mv kernel.spec ../SPECS/ # cd ../SPECS/ # vi kernel.spec →2箇所変更 コメントアウトされている「%define buildid〜」のコメント解除し、適当に変更(例:%define buildid .centest) 「%define signmodules 1」を「%define signmodules 0」に変更 つづく
188 : >>187 のつづき 5. パッケージビルド(--targetは適宜変更) # rpmbuild -bb --target=i686 --without kdump --without perf --without perftool --without kabichk --without fips --without debuginfo --without dracut --without vdso_install kernel.spec →エラーが無ければ/usr/src/redhat/RPMS/i686/にカーネルパッケージが出来る 6. カーネルパッケージを強制インストール # cd /usr/src/redhat/RPMS/i686/ # rpm -ivh --nodeps kernel-2.6.32-19.centest.i686.rpm ちなみに、"--nodeps"無しの場合のエラー kernel-firmware >= 2.6.32-19.centest は kernel-2.6.32-19.centest.i686 に必要とされています grubby >= 7.0.4-1 は kernel-2.6.32-19.centest.i686 に必要とされています mkinitrd >= 6.0.61-1 は kernel-2.6.32-19.centest.i686 に必要とされています udev < 145-11 は kernel-2.6.32-19.centest.i686 と競合します。 7, 初期RAMディスク再作成 テストした環境では、この時点で作成されている初期RAMディスクが異常で起動できない (mkinitrdの依存無視してるから当たり前?) 展開してみると、sd_modが入っていなかった sd_mod及び依存ドライバを含めて初期RAMディスク作り直し # mkinitrd -f --builtin=ehci-hcd --builtin=ohci-hcd --builtin=uhci-hcd --with=sd_mod --with=scsi_tgt --with=crc-t10dif /boot/initrd-2.6.32-19.centest.i686.img 2.6.32-19.centest.i686 (↑4で設定したbuildidの合わせてファイル名とカーネルは適宜変更) VMware Workstation 7の仮想マシンは上記でOK。 ハードウェア構成で必要なドライバは変わるので、事前に2.6.18のカーネルが起動した状態で ロードされているドライバを確認しておき、必要に応じて初期RAMディスクに含めること。 8. 再起動→2.6.32で起動OK
189 : >>187 本当に丁寧に教えていただいてありがとうございます。 本当に面倒な作業なんですね。 今夜にでも試してみようと思います。 fedora13のLiveCDを使って/sys/block/md0/md/level の書き換えが出来ました。 正確には/sys/block/md127/md/levelです。 LiveCDで起動したらmd127にされてしまいました。 そのままecho raid5やって、 CentOSで再起動。 再起動後にもlevelファイルの中身はraid5だったので、 growしてみたところうまくいきました。 で、md127のままなのが気に入らなかったので #mdadm /dev/md127 -f /dev/sdb1 /dev/sdc1 /dev/sdd1 #mdadm /dev/md127 -f /dev/sdb1 /dev/sdc1 /dev/sdd1 #mdadm --misc --stop /dev/md127 #mdadm -C /dev/md0 -l 5 -n 3 /dev/sdb1 /dev/sdc1 /dev/sdd1 と、これでmd0になりました、データも失っていません。 これ以外の方法が思いつかなかったんですが、 もっとスマートな方法があったら教授願いたいです。 mdadmまだ使いこなせてません。 カーネルが古くてもmdadmのバージョンが条件を満たしていれば できるみたいですね。 みなさん、親身になって答えてくださりありがとうございました。
190 : --super-minor=0 --update=super-minor
191 : -l1したら/bootにする場合でRAIDを理解しないローダー使うときは--metadata=0.90指定しろよ、って言われたわ >>116-122
192 : チラ裏メモ Fedora12 x86_64(mdadm 3.0.3-2)だと7台構成のRAID6→8台構成にreshapeしようとすると mdadm: Need to backup 120K of critical section.. mdadm: /dev/md1: failed to save critical region でエラー Fedora13 x86_64(mdadm 3.1.2-10)にupgradeしたら mdadm: Need to backup 120K of critical section.. (黙ってreshape開始) で成功 mdadm 3.0.3-2のままでもRAID5の6台→7台の変更と7台のRAID5→7台のRAID6はできたので 3.0.3-2には半端に不具合が残ってる気がする
193 : WD20EARSでRAID6組もうと思うんだけど、AFTってなんか関係してくるん?
194 : >>193 http://hibari.2ch.net/test/read.cgi/jisaku/1279640392/475 kernel が対応していれば問題なしかと
195 : >>193 ハードウェアRAIDカードの場合、一部のカードで不具合報告あるから要確認 http://hibari.2ch.net/test/read.cgi/jisaku/1275144136/108
196 : >>193-194 回答ありがと。 SAS6/iRでソフトRAID6なんだが報告なさげだから人柱なのかな?
197 : >>195 あ、なつかしい。俺がまとめた奴だw 引用ありがと。
198 : CentOS 5.4でHDD3台をRAID5でひとまとめにして使っていました。 最近になって容量が足りなくなってきたので、 同じ容量のHDDを1台追加し、領域拡張しょうとしているのですがうまくいきません。 http://liliumrubellum.blog10.fc2.com/blog-entry-181.html ここの手順通りに進めたのですが、最後にファイルシステムを拡張するところで # resize2fs -p /dev/md0 resize2fs 1.39 (29-May-2006) resize2fs: デバイスもしくはリソースがビジー状態です while trying to open /dev/md0 Couldn't find valid filesystem superblock. このようなエラーメッセージが表示されます。 マウントしているのがいけないのかと思い、umountを実行しましたが、 resize2fsのエラーメッセージは変化ありませんでした。 どうしたらうまく拡張できるのでしょうか? ちなみに、マウント先は/homeで、アンマウント方法はumountコマンドだけでなく、 /etc/fstabを書き換え、起動時からこのデバイスをマウントしないようにすることも試しましたが、 結果は変わりませんでした。
199 : Centの5.4辺りのkernelとmdadmのバージョンで Online RAID Level Migrationってできるんだっけ?
200 : 参考にしたサイトには書かれてないみたいですが、 lvextend -l 89425 RAID5_01/home で論理ボリュームを拡張したあと e2fsck -f /dev/RAID5_01/home を実行すれば、追加HDD分の容量が増えました。 マウントしていない状態で行ったので、アンマウント必須かはわかりません。 次やるときはマウントせずに試してみます。 あと、/etc/mdadm.confに num-devices=(数字) という記述がなかったので、今回は何も書き換えなかったのですが、 特に問題なく動いているみたいです。 ディストリによってはこのファイルの書き換えは必要ないのでしょうか。 とにかく、そんなわけで自己解決しました。お騒がせしました。
201 : 誤: 次やるときはマウントせずに試してみます。 正: 次やるときはマウントしたまま試してみます。 でしたorz
202 : >>200 リンク先のページを開こうとするとブラウザが固まるんで判らんのだが、要するに 自分とこのシステム構成(RAID + LVM + ext3)を把握しないまま、 RAID + ext3のシステムについて書いたブログエントリをそっくりそのまま真似して 「うまくいかない!」 ……というオチ?
203 : >>202 だいたいそんな感じです。 さすがに自分のところの構成くらい把握してるつもりですが、 どこ見てもこのやり方で書いてあったんで、 ほとんどの構成で通用するやり方だと思い込んでいました。 さらにエラーメッセージが resize2fs: デバイスもしくはリソースがビジー状態です while trying to open /dev/md0 なので、これを読んで「LVM使ってるからやり方が違うんだ」 という発想にたどり着けず、途方にくれてました。
204 : 最近のマザーボードはRAIDカード搭載の物が多いですけど Linuxで使うならソフトウェアRAIDの方が無難ですか?
205 : >>204 いえす
206 : >>204 ×最近のマザーボードはRAIDカード搭載の物が多いですけど ○最近のマザーボードはRAID機能搭載の物が多いですけど ソフトウエアRAIDだとハードウエア(マザーとかボードとか)変えてもコマンド打てば復活する 移し変え時の別のハードウエアへの接続位置(順)は適当でいい 1,2,3,4→2.4.1.3としてもちゃんと復活してくれる ハードウエアRAIDだとハードウエアを変えるとデータがあるのに見えない 場合によっては消える
207 : >>205 ,206 ありがとうございます ソフトウェアRAIDにしておきます
208 : >>206 「最近のマザーボード」とやらに載ってるようなのは 「ハードウェアRAID」ですらない。 >>206 の書きようだとハードウェアRAIDには 何のメリットもないように見えるなw たぶんハードウェアRAIDを使ったことがないんだろうが。
209 : マザボのRAID機能をどうこう言ってる相手に、ハードウェアRAIDのメリットも糞もないわw メリットがあるとして、それを得るには幾ら投資すりゃいいのさ 個人レベルはもちろん、業務レベルでも一部を除けば、ソフトウェアRAIDで充分だよ
210 : 費用対効果で考えればいい 同じ効果を安くできるならそれでいいって考え方でいいじゃん 人それぞれだけど
211 : ちなみにオレはソフトウエアRAID派 馬鹿なんで、USBメモリ起動で8台 RAID6で運用しています USBメモリのイメージを別でとってあるんでUSBメモリが壊れても無問題
212 : >>209 >>208 の指摘は (1)>>206 は疑似HW RAIDとHW RAIDをゴチャマゼにしている (2)HW RAIDにはSW RAIDとは違うメリットがある という別々の二点なのだが?
213 : (2)に関しては >>206 の書き方では初心者に誤解を与える という指摘だな
214 : >>212 擬似HW RAID用ドライバ開発されてなかったっけ? ちょっとだけ負荷軽くなる奴
215 : SW RAIDの欠点はRebuildやResync時にI/Oバス帯域を食いまくるところか。 >>214 擬似HW RAIDは dmraidドライバでIntel/nVidiaチップセット向けRAID対応だったかも。
216 : いろんな用途と複合的に使うにはHW RAIDが有利
217 : SCSIのRAIDは信用できるが IDE/ATA/SATAのRAIDはなんか信用できない SATAならむしろOSの機能のソフトRAIDを選びたい
218 : 「なんか」とか
219 : スカ爺の言うことだし
220 : チッ、うっせーな…反省してま〜す
221 : >>211 フラッシュメモリをRAID5/6で使うと、あっという間に寿命が来るぞ。 バックアップ取ってあるなら、RAID0で使った方が寿命長いんじゃないか?
222 : フラッシュメモリは起動用でHDDは8台でRAID6ですよ コレダメならESXやESXiのUSBメモリ起動もダメってことじゃ?
223 : >>222 swapは?
224 : メモリ2Gしかないけど、作らない。
225 : こんばんは。 Xenserver5.6(Centosがベース)上で、Windows2008R2をファイルサーバ として動かしてます。 そして、ホスト側にてディスク2TB×4本でRAID10を組んでます。 ですが、ゲスト側に割り当てれるHDDイメージが1つあたり最大2TBまでのため、 しかたなく、2TBイメージ×2つを割りあえてて、ファイルサーバを動かしてます。 そのため、2008R2サーバ上ではディスクが2つ見える状態ですが、 使いやすくするために以下いずれかの方法で4TB×1にしたいのです。 1.スパンボリューム 2.RAID0 のいずれかでまとめるならば、1、2でパフォーマンスは異なったりするのでしょうか? (スパンボリュームのほうは試しましたが、データがあるのであまり変更したくないです) もし、知ってる方がいらっしゃいましたら教えていただけないでしょうか。
226 : >>225 XenServerのことは知らんが、ネタは物理ドライブじゃなくて ディスクアレイに置いてあるイメージファイルなんだろ? 同一アレイに置いてあるイメージファイルをRAIDをしても高速化するとは思えんから、 普通にスパンボリュームでいいんじゃね?
227 : >>226 試してみました。書き忘れましたがベースのRAID10はソフトウェア(mdadm)です <条件> * MB/s = 1,000,000 byte/s [SATA/300 = 300,000,000 byte/s] OS : Windows Server 2008 R2 Datacenter Edition (Full installation) [6.1 Build 7600] (x64) ★JBOD Sequential Read : 121.461 MB/s Sequential Write : 95.109 MB/s Random Read 512KB : 20.740 MB/s Random Write 512KB : 34.521 MB/s Random Read 4KB (QD=1) : 0.516 MB/s [ 126.0 IOPS] Random Write 4KB (QD=1) : 0.881 MB/s [ 215.1 IOPS] Random Read 4KB (QD=32) : 1.068 MB/s [ 260.6 IOPS] Random Write 4KB (QD=32) : 1.073 MB/s [ 262.0 IOPS] Test : 1000 MB [D: 0.0% (0.2/3718.3 GB)] (x5) Date : 2010/11/12 22:56:08
228 : >>226 ★RAID0 Sequential Read : 66.657 MB/s Sequential Write : 82.209 MB/s Random Read 512KB : 20.065 MB/s Random Write 512KB : 42.841 MB/s Random Read 4KB (QD=1) : 0.563 MB/s [ 137.4 IOPS] Random Write 4KB (QD=1) : 2.608 MB/s [ 636.8 IOPS] Random Read 4KB (QD=32) : 1.232 MB/s [ 300.8 IOPS] Random Write 4KB (QD=32) : 2.544 MB/s [ 621.2 IOPS] Test : 1000 MB [D: 0.0% (0.2/3718.3 GB)] (x5) Date : 2010/11/12 23:19:09 ★単体 Sequential Read : 225.816 MB/s Sequential Write : 106.714 MB/s Random Read 512KB : 30.901 MB/s Random Write 512KB : 59.968 MB/s Random Read 4KB (QD=1) : 0.694 MB/s [ 169.5 IOPS] Random Write 4KB (QD=1) : 1.636 MB/s [ 399.5 IOPS] Random Read 4KB (QD=32) : 1.336 MB/s [ 326.3 IOPS] Random Write 4KB (QD=32) : 1.730 MB/s [ 422.4 IOPS] Test : 1000 MB [D: 0.0% (0.2/1859.2 GB)] (x5) Date : 2010/11/12 23:28:41
229 : >>226 結果、何もしないのが一番よいことがわかりました。 RAID0だとすごく遅くなり、JBODだと単体の半分ぐらいです。 (予想外の結果でした) 単体のドライブ2台を同時にベンチするとJBODぐらいのスピードに なったので、恐らく書き込みなど分散→さらにRAID10にて分散など 無駄な感じとなって、落ちまくってるんだと思います。 #なんどやっても、同じでしたorz
230 : 別にストレージ用のサーバ立ててiSCSIでマウントする とかが当世風じゃね? いろいろと融通が利くし
231 : >>230 iSCSIでのディスク利用は考えてるのですが、ネットワーク周りを 強化してないので、とりあえずはローカルディスクで外部NASに バックアップするような構成です。 iSCSI使うなら、ライブマイグレーションを使うことが目的になりそう ですので、ホスト側を冗長しないとメリットなさそうですし、ディスク側 や経路上のNW機器も冗長しないと怖いです。 (ゲスト8台動いてますが、その最中にディスクが切り離されると 思うとゾッとします) iSCSIを試す分には全然大丈夫なのですが、個人運用で本格利用 するにはコストがかかりそうなので今のところ見送ってます。 #ホスト側が落ちたら同じなんですけどね。でも、冗長化してないiSCSI 利用よりかはトラブルが発生しにくいかなと思ってます。 #職場ではesxiを入れたブレードサーバとかで構築してますが。 (もちろんディスクは外部で)
232 : 質問いいですか win7とubuntuあたりでRAID構成を共有したいのですが、できますかね
233 : >>232 一台でマルチブートって事? ならオンボのRAIDドライバはどちらでも使える。
234 : test
235 : DELL SAS6/iR RAIDカード で、 WD20EARS-00MVWB0 で、 ソフトRAID6いけるかな?
236 : 8台くらいで構成したmdのraid5or6or10のベンチマークするとどの程度パフォーマンスが出るもんです? そのうち自分でも試すつもりだけど参考用のデータとかあったりします?
237 : エスパー RAIDするメディアにもよる
238 : 速度はあんまり出ないよ シーゲートの7200回転1.5TB x 6 のRAID6 hdparm -ft /dev/md1 /dev/md1: Timing buffered disk reads: 418 MB in 3.00 seconds = 139.15 MB/sec
239 : 骨董品の幕の6L(250GB)*8本のRAID6で /dev/md1: Timing buffered disk reads: 874 MB in 3.00 seconds = 291.07 MB/sec 250〜300弱の間でふらふらする
240 : 情報サンクス。 今4台のRAID5でkvmのホストやらせてるがゲスト7つ起動するとdisk i/oで詰まってる感じがするので台数増やしたら改善できないかなと思ったのだけれど。 cpu負荷との兼ね合いもあるけどチャレンジしてみようかと思います。 これでkvm自体がボトルネックだったら泣けるなあ。
241 : >>240 ゲスト毎に違うHDD用意するのが幸せになれるんじゃないの? って、7台+システム1台はさすがに厳しいな
242 : >>116 激しく遅レスだけど、WD20EARSでmd RAIDやるならポイント2つ押さえておけば大丈夫。 http://green-rabbit.sakura.ne.jp/blog/2010/11/27/2191/ - RAIDのデータ開始位置をセクタの区切りに合わせる - LVMのデータ開始位置をRAIDのチャンクサイズに合わせる ディスク丸ごとRAIDの対象にしてしまえば、パーティションテーブル関係なし。 (パーティションはRAIDディスクに対してLVMで管理)
243 : 6台のraid6をmdadmで構築していました。 1台FailになったのでHDDを交換して復旧させようとしたら 次々とHDDがFailになり復旧できなくなりました。 これってもうダメなのでしょうか? dmesg見るとHDD自体は認識しているようなのですが。
244 : それってコントローラーかマザーボード/CPUが死んでるんじゃ…
245 : 同ロットのHDDで揃えてたんだろ。良い教訓。
246 : >>242 linux初心者にわかりやすくコマンドください WD20EARS8台でRAID6にしたいのです
247 : すみません。ちょっとパニくってましたw mdadm --assemble --force /dev/md0 したら、とりあえず4台で再構築が始まったみたいです。 >>245 全部同じではないけれど半分くらいは同じだったかも。
248 : >>246 リンク先のエントリを読んで解らんヤツにれいどろくなど宝の持ち腐れである! アレが解らん人間にディスクがお釈迦ってデグったアレイを復旧できるとは思えんなw
249 : キモは2つか
250 : >ディスク丸ごとRAIDの対象にしてしまえば、パーティションテーブル関係なし。 どうやるの?
251 : >>250 パーティションを指定する代わりにデバイス全体を指定すればいいだけ。
252 : パーティションタイプでfd(Linux RAID Auto Detect) を使う必要があるのかと思い、 1ディスク1パーティションの時でもパーティションを切っていたよ。。。。
253 : >>252 /dev/sda1とかパーティションを切ったのに mdadm --create -n 4 -l 5 /dev/sd[abcd] でパーティションテーブルを吹っ飛ばす、というのはお約束なドジの一つだよねorz
254 : でも、微妙な容量差を揃えられるように 1領域でもパーティションにした方が良いんじゃないかね。
255 : >>254 確かに。そのあたりは、下記でも触れられていますね。 https://raid.wiki.kernel.org/index.php/Partition_Types 個人的には、交換用に新しく買ったディスクのサイズがちょっと小さかったら、 そのとき対処すれば良いんじゃないかなー、と思ってます。 mdadm --grow --size= でサイズ変更するだけなので。 あ、RAID1以外だと時間かかりそうだし障害時にやるのはあれだから、 --create するときにあらかじめ --size しておけば良いんじゃないのかなー。
256 : >ディスク丸ごとRAIDの対象にしてしまえば、パーティションテーブル関係なし。 6台でRAID6とかでも関係ない?
257 : >>256 関係ないよ。 >>255 でも書いたけど、RAID6ならRAID構築するときにサイズ指定しておくと良いよ。 (サイズは HDD の容量から 100MB程度引いておく) % mdadm --create --size=サイズ(ディスク1台当たりに使用するサイズ[kb],64の倍数) そうじゃないとHDDこけて交換しようと思ったときに、 同一モデルHDDでも容量が少なかった場合に困る。
258 : 容量ちょっとだけ大きいの買ってくるだけでいいやん
259 : >>258 でも、2TB使ってそういう状況になったら、2.5TB とか 3.0TBとかになって、GB単価違いすぎて泣ける気が
260 : 結局後から面倒事が出てきて対処対処 パテ切ってるのと変わらんなw
261 : WD20EARSを8台買ってきた。 組む時間がないから放置することになるが、 正月休みぐらいに対処しようかと。 ソフトウエアRAID6に挑戦予定。
262 : >>260 パーティションきるのに比べたら、RAID構築時にオプション1個つけるだけのほうが楽だとおもうのだけれども。 切りたいのなら切れば良いと思うけど、物理セクタサイズ4096のHDDが何台かある場合、 ただ手間なだけな気がする。
263 : LinuxのソフトウェアRAIDって、起動ディスクにはRAID0か1しか使えない? ディスク丸ごとRAID(RAID5)を組もうと思ったけど、 その場合は起動ディスクは別に用意しないとダメでしょうか。
264 : >>263 RAIDじゃなくて、ブートローダーの話だな ttp://grub.enbug.org/LVMandRAID >Version 1.97 and older only support RAID-0, RAID-1, and RAID-5. Version 1.98 adds support for RAID-4, RAID-6, and RAID-10.
265 : 早速ありがとうございます。 grubが対応してればOkなんですね。 Cent5.5は0.97の模様。。。 近々出ると言うCentOS6を選択肢に入れたとしても、RHEL6が0.97。 ttp://distrowatch.com/table.php?distribution=redhat ディスク丸ごとは諦めて、パーティション毎のRAIDにしようかと思います。
266 : すみません、読み間違えてました。1.97以前でもRAID5まではOkですね。
267 : おーい、そりゃsince version 1.95の話だぞ 0.9xのGRUB Legacyと1.9xのGRUB 2を一緒にしちゃいかん
268 : 度々すみません。ありがとうございます。 もっときちんと調べてから書き込まないと、ダメですね。。。。
269 : Fedora13/14だとgrubとは別にgrub2ってパッケージあるね
270 : アフォな質問だけど誰か教えて。 遊び用で富士通のRX100 S6ってのが手に入った。 BIOS に RAID の項目あるし、ブート時に LSI MegaRaid とか表示される から SATA のハードウェアRAID だと思って、BIOS でミラーリングにして CentOS 入れてからディスクをぶっこ抜いてみたら死んだw 調べるとどうやらフェイクRAIDってやつらしい。 dmesg 見ると dmraid で動いてるみたいだけど、フェイクRAIDって 片肺では動かないもの? 遊び用じゃない 3com のハードウェアRAIDだと障害発生時には ホットスワップでディスク交換すればリビルドが自動で走るんだけど、 その感覚では使えない?
271 : こんなレベルのがハードウェアRAIDがどうこうソフトウェアRAIDがどうこう語れるのか・・・ いい時代だなぁ
272 : 3com?3ware?
273 : >>270 RX100 56がホットスワップに対応してるかどうかをなぜ真っ先に調べんのだ。 >フェイクRAIDって 片肺では動かないもの? 片肺で動かなければRAIDの意味がないではないか。それとホットスワップ対応は別問題。 >>271 ディスクが安くなったからねー。
274 : >>273 下らん質問にレスありがとう。 WEBにはRX100 S6のホットスワップの情報はないんだけど ひとつ前のRX100 S5や他の3400チップ積んだ製品では ホットスワップできてるみたいなんで、S6でもいけるかと思って。
275 : >>257 新品2TB8台でRAID6しようとしたんだが、一番容量が小さいHDDってどうやって知るのかな? サイズ指定(1664000000KBまで下げても)しても largest drive (/dev/sdb) exceeds size (1664000000K) by more than 1% と出ます hdparm -I /dev/sd* で調べても 同じセクタ数、同じdeviceサイズ(MB)なんでよくわからないんですが?
276 : 自己解決 -zの値を大きくすればいいのね WD 2TB mdadm: /dev/sdb is smaller than given size. 1953513344K < 2000000000K + metadata mdadm: /dev/sdc is smaller than given size. 1953513344K < 2000000000K + metadata mdadm: /dev/sdd is smaller than given size. 1953513344K < 2000000000K + metadata mdadm: /dev/sde is smaller than given size. 1953513344K < 2000000000K + metadata mdadm: /dev/sdf is smaller than given size. 1953513344K < 2000000000K + metadata mdadm: /dev/sdg is smaller than given size. 1953513344K < 2000000000K + metadata mdadm: /dev/sdh is smaller than given size. 1953513344K < 2000000000K + metadata mdadm: /dev/sdi is smaller than given size. 1953513344K < 2000000000K + metadata 当たり前かもしれんが8台とも同じだった
277 : マウントまでいったんで、ベンチとってみた ソフトウエアRAID6 WD20EARS-00MVWB0 *8 md0 READ 平均 388.27MB/s WRITE 平均 159.583MB/s まぁまぁだね
278 : 同じドライブを4台でmdadmのRAID5だが Timing buffered disk reads: 996 MB in 3.00 seconds = 331.61 MB/sec 8台もある割にそんなでもないような…?
279 : アホな質問ですが mdraidで不良マーク→再起動→自動removeされちゃったデバイスを --addして新たに書き直すんじゃ無くて 不良じゃなかった事にしてしれっとアレイメンバに戻す手ってありますか Failったのは論理エラーでデバイス内データもHDDそのものの物理故障も無いって仮定で
280 : mdadm --manage --re-add --force /dev/mdなんちゃら /dev/sdはずしたデバイス でどうでしょうか
281 : とりあえず2Tx4でRAID6を作ってみたので一応メモ。 まず、>>211-222 のようなUSBメモリ起動を考えていた。 が、>>254-262 のように全領域をRAIDにしようとしても、 結局ははRAID領域としないほうがよい微小な容量が残る。 ならば、それを/bootやswapとしてしまえばよい。 そのためには結局パーティションを切る必要があるが それによって起動に必要な他のデバイスを省略できる。 また、>>263-268 の疑問は、「/をRAIDにする」という意味ならば大丈夫。 起動時のカーネルは、/boot内にあるものを読みこみ なおかつその時の/はinitrdから作ったRAMディスクだから。 というわけで、慣れないこともあって(AFT対応もあって)手間取ったし トラぶってやり直しなんかもしたけど なんとかCent5が起動はするようになった。
282 : 毎月第1日曜の00:57に実行されるmdadmのcheckarrayって ものすごく負荷が掛かるんだけど、そもそもこれって必要なの?
283 : 自分が最高に神に祝福されていると信じているなら不要
284 : ietdで常時読み書きしているので負荷が上がるとエラーになるんだよね。 いい方法ないかしら。
285 : 神に祈る
286 : >>284 checkarrayスクリプトの中でioniceを使ってIOスケジュールのクラスを'idle'にしてる それでもエラーになるってことは、IO性能の限界。 キャッシュをたくさん積んだRAIDカードと早いDISK or SSDに置き換えた方がいい
287 : >checkarrayスクリプトの中でioniceを使って ???
288 : すごく初歩的な質問かもしれませんが教えてください。 インテルマザーボードオンボードのICHのRaidに2台のSATAのHDDで組んだRaid0と、 コレガのCG-HDC2EU3100なんかの外付けRaidケースにe-sataで2台入れて組んだRaid0では 速度はどのくらい違いが出てしまうものなのでしょうか? 使用するHDDは同じ7200rpmのHDDです。
289 : 知らんけど、体感的な違いはゼロに近いと思う。
290 : ありがとうございます。 つまり外付けでも内蔵と同じRaid0としての速度は出ると考えていいのですね!?
291 : 2chに念押しとかw
292 : >>290 1台より速いんじゃないかなという感じの速度アップはできる。 ベンチマークソフト使えば、数値で目に見えた違いを出してくれる。 だけど、2台でRAID0やって、理論的には2倍になるというのは幻想。 そういう意味で、「RAID0としての速度が出る」と言ってるのなら その考え方は間違ってる。
293 : バスが律速しないとして2倍にならない例って何?
294 : mdraidでミラーリングしているんですが、 いずれか1台が故障しても読み書きは継続できますよね? ファイルシステムのエラーでハングアップになったもんで。
295 : >>294 そうだよ。だからスレ違い。
296 : スレ違いではないけどな
297 : いったいどれがsdaでどれがsdbなんだか
298 : 匂いを嗅いでみて、甘い匂いのするのがsda。 ちょっと舐めてみて酸っぱいのがsdbだよ。
299 : 両方酸っぱくて甘い匂いがしたらどうすんだw シリアル控えてあるかバラして分かってるなら、 Redhatのディスクユーティリティー使えばひと目で分かるよ。 ls /dev/disk/by-id -l と cat /proc/mdstat でも シリアルとの対応は分かる。dmraid だと知らん。
300 : 300げっと ちょっと前、電源死んでHDDが見えたり見えなくなったりATA2モードになったり止まったり したんだがソフトウェアRAID1組んでたから普通に使えて「あーなんかカッコンカンッコン言ってるな〜」 って感じだった。ソフトウェアRAIDって何気にすげーなって思ったぜ。
301 : >>300 しかし、同じロットは同時に逝きやすいという法則は越えられない。 こないだ、2発同時にあぼんしたw いまは日立とWDを混ぜている。
302 : >>297 同じ疑問抱えてます。 アレイ内のHDDが壊れたとして、物理的に壊れたHDDがどれなのか特定すんのはどうしてるんだろう。 ケーブル外して取り外すときにオペレーションミスして 生きてるHDDを取り外さないための仕掛け&工夫実践例キボン。
303 : 基本的にはシリアルNoから判別するしかないんじゃない? オレは、hdparm -i /dev/sd* でシリアルNo確かめて、あとは>>299
304 : CentOS 5.5でRAID6のオンライン領域拡張したいんだけど、カーネル2.6.21以上でないとダメとか見つけたんだ。 カーネルだけ入れ替えるしかないのかな?
305 : 俺も同じくCentOS5でRAID6をgrowしようとした。 最新カーネルを自力で作って起動するかテスト ・・・というのをVM上で一応やってみて大丈夫そうだとは思ったが 俺の場合はオンラインである必要は無かったので 結局、FedoraのliveCDを使ってgrowした。 ちなみに、(当然ながら)マザー次第だとは思うけど 俺の場合はnodmraidをつけなくて いくつかのディスクがraidから除外されていたり リムーバルと認識されて/dev/md127になったりと 結構トラぶった。
306 : あれ?俺がいるw 自分もFedoraなら行けるんじゃねと思って、LiveCD使ったんだけどアレイからHDDが外れていた。 リビルドして領域拡張したけど、CentOS5.5に戻ってきたらアレイが元に戻っていた。 だからFedoraも意味がなかった。 >305 はCentOSに戻してもアレイはそのままだったのかな? # そこまでやるならFedoraに移行しろよ。というツッコミはなしで。
307 : いや、ちゃんと拡張した状態で動いてるよ。 ただし、当然だけど完了するまで待ってそれからCentOSを起動したから。
308 : 自分もリビルドが終わるまで待ったんだけどな。 マザボ:GA-EP45-UD3R OS用HDD:WD1001FALS 1発 データ用HDD:WD20EARS 5発(Dx2, Px2, Sx1) でFedora LiveCDで拡張したんだけど。 今は卒論で忙しいので、今月下旬に再度試してみるわ。
309 : じゃあ、2-3日のうちに、俺が>>281 と>>305 で どんなトラブルに見舞われたか 一通り書き殴ってみるよ。 これからやろうとする人の参考になるかもしれないし。 使ってるのはGT110bで、2台買って(1台をデスクトップ用にCPU等を交換増設) もう一台との間でメモリとHDDをトレードしたもの。 これからDVDを外してEARSx6をHDC-503であわせて使ってる。
310 : Linux のソフトウェア RAID って、ホットスペアだけをローパワーで動かして、 スペアからアクティブになった時に自動的に回転数を戻す。 みたいな設定って出来ますか?
311 : >>310 「アレイがデグったら、待機状態にしといたスペアディスクを起こしてアレイに追加する」 みたいな処理をcronで定期的に回せばいいんじゃない?
312 : 可変回転数のHDDなんかねーよ 普通にスピンダウンしとけ
313 : >>312 http://ascii.jp/elem/000/000/078/78783/ あるのに…
314 : WDのやつは、可変ではない。 非常に短い時間(デフォルト7秒)のアイドルでスピンダウンするだけだったはず
315 : >>312 手動でスピンダウン/アップとかめんどくさいじゃん? だから RAID ソフト側でホットスペア中は低回転でまわしてくれれば嬉しいなと
316 : 回転数5400~7200ってロットによって違うとかそんなんじゃねww
317 : 1つのモデルでスペック上は普遍の回転数が、 個体差でそこまで振り幅あれば不良品でしょww
318 : >>313 やっぱり出たなマスコミに騙されるバカ
319 : LinuxのソフトウェアRAIDをGUIで管理できるようなので使いやすいのはあるんでしょうか。 webminくらいしかそもそもモノが無いですかね?
320 : >>319 使ったことないけどpalimpsest disk utility
321 : webmin楽かもしれんけどweb管理がもっさりすぎてやめた
322 : ぶっちゃけ、個人PCの安全対策にRAID1組みたいだけなら CG-HDC4EU3500 とか買ったほうが楽っすよね。
323 : 弄るのが面倒と考えるならそれでいいんじゃないの? 俺はいじるのが好きだから PC 組むことからやったけど・・・
324 : >>322 最初の手順はラクだろうな… けど、ドツボにはまった時のはまり具合もあるからな。 個人向けなら融通の利くmdadmでの管理がお勧めな気がするぜ。 例えば、2個でRAID1を組んでて、1個あぼ〜んしたときに、どうやってHDDを準備する? 仕事ならスペアディスクが準備してあったりするけど、個人でそれやってる人は少ないでしょ。 適当なHDDをLVMなりmdadmでつなげて元のアレイに加えたり、他の容量があまってる storageから切り分で容量貰ってきたのを流用したり、と。そう言う面もあるからなぁ。
325 : あるからなぁ と言われても
326 : ミラーの片割れがあぼーんしたらバックアップを取って二台とも廃棄処分だろ。んで、新規に二台買ってきてリストア。
327 : >>326 「可用性」はどこ行ったんだよw
328 : >327 即死しなかったおかげで緊急メンテでバックアップを実行できて最新の最終のデータを失わずにすむだろ。 ディスクを二台とも廃棄するのは同じ環境で同じように酷使されたディスクなんて信頼性はもう無いと見た方が安心できる。 あと無停止システムにしたいなら二方向ミラーの一組だけでどうにかしろってのは無理だし。
329 : 最近は別メーカーとか別製品のHDD二台組み合わせて 遺伝的アルゴリズム風に運用するのが流行りだしてね?
330 : 三台でミラーリングして定期的に一台交換する、とか
331 : LVM ってプールみたいなもん?
332 : >>331 うんにゃ、AIXの論理ボリューム管理みたいなもん。
333 : 320GBのHDDでarray作って思った 320GBがいつまで新製品で買えるのかとw せめて500GBにしときゃよかった。。。
334 : mdadmだと、気にせず個々に大きいHDDに取り替えていけばいいんじゃね? で、全部が320GB overになったらgrowしてみる、と。
335 : アレイの構築中の負荷で他に影響を与えないようにioniceやniceコマンドを mdadmコマンド実行時に前段に追加して実行してもダメなんすね。 実際に仕事してるのは別プロセスのようなので、(md0_raid5とかmd0_resyncとか) mdadm実行後に立ち上がったプロセスをreniceとioniceで後から優先度を変更するしか アレイ構築やチェックの処理優先度を下げさせることできないんでしょうか?
336 : man 4 md
337 : manってアレイごとの /sys/block/mdN/md/ が抜けてるよね
338 : あれぃ?
339 : HDD3台で構成されてるRAID5の/devmd0に ディスクを--addで追加してスペアディスクとして組み込んだ状態から RAID60レベル変更にしたいのですが、 # mdadm --grow --level=6 --raid-disks=4 /dev/md0 mdadm: /dev/md0: Cannot reshape array without increasing size (yet). # mdadm --grow --level=6 --raid-disks=4 --size=max /dev/md0 mdadm: can change at most one of size, raiddisks, bitmap, and layout という感じでエラーになります。引数に何が足りないんでしょうか? もしくはmdadm.confに予め何か設定しておく必要があったりしますか?
340 : >>339 上のコマンド打った後以下コマンド実行で動かない? # echo raid6 > /sys/block/md0/md/level 参考このへん: ttp://xblog.hellokitty68.main.jp/?eid=1016578
341 : mdadmってどう呼んでる? マダドム?マダッドム? マダムとダッドの合体語?
342 : エムディエイディエム
343 : 自分では エム ディー アドミン 人に伝えるときは エム ディー エー ディー エム あくまでも個人的な意見。
344 : >>340 行けました! RAIDレベル変更の拡張の場合はmdadm側のコマンドで変更後のレベル指定するんじゃなくて /sys/block/mdX/md/level の中の記載を書き換えることで実現するんすねー。
345 : エムディーアダモステ
346 : 質問。 mdadmでraid1を作っているんだが、sdbで不良セクタ発生。 再構築をしたいのだが、今は計画停電期間中。 停電が終わってから最長でも18時間で必ず次の停電が来てしまう。 dev.raid.*を設定しても18時間じゃ1.4TBのパーティションの同期完了が厳しい (丸一日くらいかかった気がする)。 UPSは2台あるが3時間の停電はとても耐えられない。 計画停電が終わるまで再構成はムリかな?
347 : 先月のだからもう解決済みかもなあ。 >>335 md の resync の下限と上限は /proc/sys/dev/raid/speed_limit_min /proc/sys/dev/raid/speed_limit_max をそれぞれ sudo echo xxxxx > ファイル、で数値を直に書き換えられる。 まずは cat して現在値を確認のこと。max はデフォルト値 200000 kB/s。 再起動すると元に戻るのでご注意を。 (個々のデバイスだと /sys/blocks/md*/md/sync_* あたりらしいけど使ったことない) ファイルのパス込みの正式名をどうしても覚えられないので、 設定が必要になるたびggりなおしてるw >>341 エムディーアダム。 原義からするとアドムのほうが近いんだろうけど、語感が好きじゃないのでアダム。
348 : >>346 347 に書いた方法で制限速度(limix_max)は上げられるけど、 小手先だし間に合わないんじゃないかなあ。 過負荷でアレイが壊れてかまわないなら、まずはレッツトライ。
349 : >>348 レス有難う。 dev.raid.speed_limit_minやdev.raid.speed_limit_maxをageまくって丸一日なんだ。 アレイが壊れるのは困るから…方法がないなら放置かな。 不良セクタ箇所以外は生きている(はずだ)し。
350 : >>349 案1 ディスクをもう1組用意して、パーティションを何個か切る(sdc1-4, sdd1-4とか)。 それぞれのパーティションでアレイを組んで(sdc1+sdd1->md1,...)1組ごとに同期をとる。 できたmdをLVMでくっつけて、縮退したアレイのデータが収まる大きさまで育ったらデータをコピる。 案2 バックアップとったら電源落として、のんびりする。
351 : >>350 ありがとう。案1は私の力じゃ作業に不安があるな。 今日の二回目の停電が中止になって30時間以上間が開いたから、 ソッコーで同期始めた。 >>348 ,350ありがとう。
352 : >>346 bitmap作ればできなくない?
353 : ディスクが1発死んだときに、新しいディスクに交換してリビルドする前にバックアップとるとすると、 バックアップ先のハードウェアって何にしてる? 容量の大きなRAID組んでると、バックアップ先もでかい容量が必要になると思うんだけど、USBの外付け ハードディスク買ってきても、いいとこ3TBだし。
354 : 別PCにバックアップ用のアレイを組んでるよ
355 : 質問です。 HDD1台のみでスパニングモードのアレイを設定(マザボ付属のraid)して、 その後にアレイを解除した場合、データは消去されたのでしょうか? 2TBのHDDを誤ってスパニング設定し、解除してしまったところです。 ウィンドウズの「ディスク管理」では「ディスク1 ベーシック 1863.01GB オンライン 未割り当て」、 Nvidiaの「ストレージ設定表示」では「基本ディスク」と表示されています。 マザボはGF8100 M2+SEです。 よろしくお願いします。
356 : 同じ設定で組めば OK
357 : >>356 様 ありがとうございます。 本日試してみます。
358 : 355です。結果報告です。 アレイ同じ構成に戻してもウィンドウズ上からは認識されませんでした。 そこでtestdiskを使い、HDDは復旧しました。
359 : 質問させていただきます。 CentOSでRAID5を組んでいるのですが、共有ディレクトリにアクセスしようとすると、異様に時間がかかり、 Linuxマシン側に糞長いエラーログが出ます。 ata6.00: status: { DRDY } とか出ているので、構成アレイの最後の一本にアクセスしようとして失敗しているっぽいです。 ただ、cat /proc/mdstatしても[5/5] [UUUUU]ですし、mdadm -D /dev/md0しても active syncです。 しかし、怪しい構成アレイはsmartctlもできなくなっていますし、RAIDから切り離すとアクセスが安定します。 これはHDD自体が死んでいるのでしょうか?
360 : >>359 その糞SATAケーブルを交感してから試してみやがれこの糞野郎 とエスパーしてみたり
361 : NEC Express5800/GT110b に HDD 4台で RAID 組もうとしているんですが、マザボの SATA に2系統あるようで、 SATA0 (赤): sda SATA1 (青): sdc SATA2 (赤): sdb SATA3 (青): sdd のようになります (赤・青はボード上のソケットの色)。 この場合、RAID1 を2セット組むとしたら sda-sdb, sdc-sdd で組むべき? sda-sdc, sdb-sdd で組むべき? なお、/boot は作成する RAID1 (md0) に入れるつもりです。
362 : なぜ自分で計測しないの?
363 : >>362 計測? sda, sdb ... と順に組んでくのがいいのか、SATA の系統をまたいで組むのが良いのか、作法を聞きたいのですが。 ググってみたのですが、あまりこの辺について書いているものを見つけられませんでした。
364 : 奇数偶数でワンセットにしたい人もいるだろうし、 連番でワンセットにしたい人もいる。 やりたいよいにやればいい。
365 : チップセットのブロック図くらい読んでこいや
366 : 俺なら同じ色同士でやる
367 : 言っておくが赤を切ると爆発するぞ
368 : 作法というなら、単一障害点を減らすのがRAIDの基本だべ
369 : sda-sdc, sdb-sdd でやってみることにしました。
370 : >>360 回答ありがとうございます。 ケーブル交換では修正できなかったので、拡張PCIカードの不良を疑って交換したら見事に治りました。 ありがとうございます。
371 : 既存のHDDを使ってRAID5あたりを組もうと思っているんですが もともと中にあったファイルを保持したままRAIDを組むっていうのは無理ですよね
372 : >>371 やり方は色々あるけどできるよ
373 : >>372 マジですか ぜひともやり方を教えていただけると…
374 : >>373 HDDに結構な負荷かかるから古いHDDだと構築時に逝くかもしれないぜ?
375 : 古いと言っても1~2年なので多分大丈夫だと思います
376 : >>373 エスパーじゃないから元の環境と(ボリューム数とかLVM使用の有無とか) RAID5にしたい時のボリューム数がわからんので何も助言できない
377 : >>371 LinuxのソフトウェアRAIDなら以下の手順で出来るよ。 1.新しいディスクを2台買ってきて取り付ける 2.新しいディスク2台で縮退状態のアレイを作る 3.アレイに既存のディスクの中身(ファイルシステム、論理ボリュームなど)をコピーする 4.既存のディスクをアレイに追加して、同期が終わるまでじっと待つ 注意事項は、新しいディスクが既存のディスクより大容量な場合、アレイを作る際に丸ごと使わないこと。 新しいディスクが3台以上あるなら普通に新しいディスクだけでアレイを作ってデータをコピーし、 最後に領域拡張するという手もある。
378 : >>376 環境はとりあえず今からRAIDができるOSを入れようと思っています なのでなんでもいいです ボリューム数は5 LVMは使えば複数HDDを一つに見せることが可能という認識でいいでしょうか であればぜひ使いたいです >>377 やっぱりいくつか買い足さないと駄目ですかね? 出来れば買い足さず今あるHDDで済ませたいのですが…
379 : >>378 え、ひょっとして手持ちのディスクをデータをそのままにRAID5のアレイにまとめようとか考えてる?
380 : そうとしか読み取れなかったが
381 : >>380 いや、手持ちのディスク1台のデータを保ったままRAID5アレイに移行するってのはアリだけど、 よもや5台全部のデータをそのままRAID5に移行したいなんて物理的に無理なことを考えてるとは思わなくて。
382 : 空きディスク1発あればRAID1縮退作って1発分移動して RAID1→RAID5変換してファイル移動して空いたディスクをRAID5にaddしてgrowしてを繰り返せば理論上できなくもないけど 変換だけで実時間3・4日くらい使うぞ
383 : やっぱり無理ですよね… 素人で申し訳ないです
384 : あまったRAIDカードと容量バラバラのHDD8台でRAID5組んで遊びで運用してるけど、一向に不具合こない RAIDは同じ型番のHDDでって思ってたけどそこまで関係ないものなのかな
385 : CentOS5.4でのソフトウェアRAID5を勉強中ですが、ディスクの交換のところでうまくいきません。 下記手順で進めていきましたが、ディスク交換→mdの再構築まではうまくいくのですが、 再起動をかけるとRAID5の構成デバイスがまた元に戻ってしまいます。 再起動後でもhdd7がRAID5のアクティブデバイスであるためには何か必要なのでしょうか? いろいろ調べてみたのですが、どのサイトにもそのようなことが書かれておらず困っています。 RAIDデイバス作成 # mdadm -C -a yes -l raid5 -n3 -x1 /dev/md0 /dev/hda2 /dev/hdd1 /dev/hdd5 /dev/hdd6 確認 # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md0 : active raid5 hdd5[2] hdd6[3](S) hdd1[1] hda2[0] 1975680 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU] フォーマットとマウントして、利用できることを確認 # mkfs -t ext3 /dev/md0 # mount /dev/md0 /test1 fstabに登録 # vi /etc/fstab /dev/md0 /test1 ext3 defaults 1 2 再起動しても利用できることを確認 # shutdown -r now (本文が長いとでるのでこの後続きます)
386 : (続きです) 検証のため2台のデバイスを削除 # mdadm --manage /dev/md0 -f /dev/hda2 # mdadm --manage /dev/md0 -f /dev/hdd1 # mdadm --manage /dev/md0 -r /dev/hda2 # mdadm --manage /dev/md0 -r /dev/hdd1 # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md0 : active raid5 hdd6[0] hdd5[2] 1975680 blocks level 5, 64k chunk, algorithm 2 [3/2] [U_U] 予備で用意していた/dev/hdd7があることを確認 # fdisk -l/dev/hdd /dev/hdd1 1 123 987966 fd Linux raid 自動検出 /dev/hdd2 124 3042 23446867+ 5 拡張領域 /dev/hdd3 3043 9122 48837600 83 Linux /dev/hdd4 9123 11555 19543072+ 83 Linux /dev/hdd5 124 246 987966 fd Linux raid 自動検出 /dev/hdd6 247 369 987966 fd Linux raid 自動検出 /dev/hdd7 370 492 987966 fd Linux raid 自動検出
387 : (つづきです) /dev/hdd7を追加 # mdadm --manage /dev/md0 -a /dev/hdd7 しばらくして確認 # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md0 : active raid5 hdd7[1] hdd6[0] hdd5[2] 1975680 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU] 再起動しても問題ないか確認 # shutdown -r now ↓なぜかhdd7が消えている # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md0 : active raid5 hdd6[0] hdd5[2] 1975680 blocks level 5, 64k chunk, algorithm 2 [3/2] [U_U]
388 : リビルド
389 : >>387 /dev/hdd7 が拡張領域の最後のパーティションであるところが臭いな。 それでスーパーブロックの自動認識がコケてるんじゃないのかな。 実験で使わない /dev/hdd8 を作ってみればどうだろう。 パーティションタイプは fd 以外で。
390 : 起動後にdmesgとかは見た?
391 : >>385 を見ると 最初の段階では hda1/2/5 の3台でボリューム作ってて hdd6がスペアだよね? で、>>386 では hda1/2 を抜いたように見えるんだが… 3台構成中の2台抜いちゃったらボリュームの再構成はできないのでは。 書いてないけど、1台抜く→リビルド終了→もう1台抜く てな段取りでやったのかな?
392 : RAID5 hda2、hdd1、hdd5、hdd6 (スペア) この状態で hda2、hdd1 を外したら、RAID5 は消滅してるよね? それとも、hda2 を抜いたあとのスペアを使ってのリビルドを終えてから hdd1 を外してるってこと?
393 : >>385 とりあえずmdadm.confをチェックしたらいいんじゃないかと思うが。
394 : arrayぶっ壊した祭りキタ━━━━(°Д°)━━━━?
395 : S-ATAのRAIDカードで、 RAID組まずにS-ATAのHDD2台増設として使用できますか? この玄人志向カードです。 http://www.kuroutoshikou.com/modules/display/?iid=86 また、複数毎挿しは可能でしょうか?
396 : 追 OSはWindows7 M/BはG31M7-TE、G31MX-Kを考えています。
397 : 帰れ
398 : http://kuroutoshikou.com/modules/kurobbs/?tid=1839 SiliconImage社から配布されているファームウェアで、 bから始まるものを当てると、RAID機能が無効になり、ただのSATAカードと認識されます。 逆にrから始まる物を当てれば、再びRAID機能が有効になり、RAIDボードとして認識します。 ちなみに、私が使ったのはb4384.binというファームでした。
399 : http://www.siliconimage.com/support/searchresults.aspx?pid=29&cat=15 BIOS-003512-xxx-4384 にrがある。
400 : リビルド 言っただろ 案の定、リビルド終わってないんじゃないかと言う意見たくさん出てるな
401 : >>395 SiI3512 - PCI to 2 Port SATA150 http://www.siliconimage.com/products/product.aspx?pid=29 これって3TB対応してるのかな?
402 : みなさん、貴重なご意見ありがとうございます。 ひとつずつ検証して結果をレスさせていただきます。 なにぶん、1週間たつと頭が真っ白になっていますので・・・ その前に、386の訂正です デバイスをいきなり2台削除したのではなく、 # mdadm --manage /dev/md0 -f /dev/hda2 でスペアのhdd6がアクティブ(同期される)ことを/proc/mdstatで確認 # mdadm --manage /dev/md0 -f /dev/hdd1 で # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md0 : active raid5 hdd5[2] hdd6[0] hdd1[3](F) hda2[4](F) 1975680 blocks level 5, 64k chunk, algorithm 2 [3/2] [U_U] を確認 (3台構成のうち2台が生きている状態) その後で、 # mdadm --manage /dev/md0 -r /dev/hda2 # mdadm --manage /dev/md0 -r /dev/hdd1
403 : >>402 だけ見て適当な意見 raid5で2台をFにしていいの?
404 : >>402 は >>391 >>392 さんからの意見をみての訂正です。 >書いてないけど、1台抜く→リビルド終了→もう1台抜く >てな段取りでやったのかな? >それとも、hda2 を抜いたあとのスペアを使ってのリビルドを終えてから hdd1 を外してるってこと? ご指摘通りです。 質問をしておいて肝心な部分を省略してしまいました。大変失礼しました。
405 : mdadm.confが見当たらないが?
406 : >>403 今回の検証の目的として、 @1台がこけたときに、スペアが自動的にアクティブとなって同期するか? Aさらに1台がこけて3台のうち2台構成であっても、RAID5として機能するか? Bあらかじめ用意していたディスクをRAID5に追加しても機能するか? なんですが、 @の検証のためにまずはhda2をFにしました つづいてAの検証のためにhdd1もFにしました そのため表示上は2台がF状態ですが、>>402 の手順では3台のうち常に2台は アクティブ状態なのでRAID5としては大丈夫だと思っていますが・・
407 : 物理的に抜かないといけないんじゃなかったか?
408 : >>405 今回は特にmdadm.confは使用していません。 理由として、 mdadmコマンドでは、mdadm.confが無くてもRAIDの構成ができるということと、 もしディスク構成が変わったときにmdadm.confの情報が古いため、再起動があったときに問題が生じる可能性がある と思ったからです。 ただし今回の問題においては、ディスク構成が変わったときにmdadm.confにも構成情報を記述したら、 再起動時にmdadm.confを参照してうまくいくのでは?と思ってやってみたのですがうまくいきませんでした。 今回もう一度チャレンジしてみる予定です。
409 : >>407 肝心の交換する物理的なディスクがないんです・・ そこで、論理パーティション(fd用)を作成してこれを交換用ディスクと仮定して検証しています。 ん・・ 今思ったのですが、RAID5構成が2/3になった場合、本来は RAID5障害 → shutdown → ディスク交換 → 起動 → パーティション作成 → RAID5再構築と思いますが、 自分のやり方だと、 RAID5障害 → RAID5再構築 となって、一番肝心の再起動をすっとばしています RAID障害と再構築の間でshutdownが必要なのかも? ちょっと後で検証してみます。
410 : /dev/hdd? ってことはPATAだよね。 SATAでやった方がいいんじゃね? 要再起動ではRAIDの価値半減では。
411 : ん? よく見たら 一台の物理HDDをパーティション切ってRAIDにしてるんだw リビルドとか何それHDDいじめ? w 単なる実験だとしても RAMディスク上に小さいディスクイメージを必要数作って VM上のLinuxにマウントしてやるとかの方が 実用的な実験になるんでないか?
412 : >>411 15年前のPC(メモリ192MB)には残酷です すでにGUIインスト・起動もできなくなるほどの老体ですので・・
413 : >>390 基本となるログ確認を忘れていました。 dmesgだとタイムスタンプが表示されないので、syslog経由で/var/log/dmesgに記録するようにしました が、すみません 387のようにhdd7をmd0に参加させてアクティブにして、3/3構成になっていることを確認後、 shutdownし、その後のdmesgを確認しようとしたのですが、 なぜか起動する時点で、 RAID5に必要なデバイスが2個しかないので/dev/md0の作成ができない、 だからfsckできない /dev/md0開けない、スーバーブロックの〜〜がおかしい とかエラーになって起動に失敗するようになりました。 朝はちゃんとできていたんですけど・・やったといえば空の/etc/mdadm.confを削除したぐらい? /etc/mdadm.confはいる子なんですかね。
414 : >>413 手でmdadm.confを書いて再起動してみ。
415 : mdadm.conf 名前からして mdadm の設定ファイル そりゃ無くしちゃ駄目だろうw
416 : 今回の件に関してリビルドという書き込みがあるのですが、 >>402 にもあるように、 @/dev/hda2をFにすると、予備の/dev/hdd6がアクティブとなりデータが復元される それを/proc/mdstatで完了したことを確認し、さらに/dev/hdd1をFにする このときはすでに予備のディスクが無いので/proc/mdstatでは、3/2表示 A/dev/hdd7をmd0に参加させて、/dev/hdd7にデータが復元される /proc/mdstatで確認すると3/3の状態に戻っている この@、Aのときに起こっていることがRAID5でのリビルド(再構築)ではないのですか?
417 : ?なこと RAID5 4台構成+スペア1 RAID5 4台構成のうち2台外す RAID5は2台外したら機能しないよ 2台外した後に1台スペア追加したからって再構築もできないよ スペア有る状態で構築してある2台外す→データあぼーん やるなら、 スペア有る状態で構築してある1台外す→スペアを使って再構築→もう1台外す→データ生きてる って感じじゃないのか?
418 : >>412 ttp://nttxstore.jp/_II_HP13476513 でも買ったら? 送料無料12800円でdual core メモリも2GB載ってる
419 : スレ違いも甚だしいのだけど、 ttp://nttxstore.jp/_II_HP13476513 の「メーカ HP(旧コンパック)」の(旧コンパック)表記は未だに必要なのだろうか、と疑問に思ったw
420 : (1) OS (例えば CentOS 5.5) インストール時に RAID5 で Array 作成 (2) 作った Array にとりあえず色々ファイル書き込む (3) OS の入ったディスクをわざと消して、OS (例えば CentOS 5.6) を再インストール Linux のソフトウェア RAID は、こんな風に OS が入れ替わっても Array の入ってた ディスクの設定とかを弄らなければ普通に認識してくれるもんなんでしょうか?
421 : >>420 何がRAIDをコントロールしているかを考えれ・・・・・・。
422 : RAIDで使ったHDDの一片をUSBに持っていったり 一片を別なPCに付けてiSCSIで接続しても元に戻るよ
423 : 戻らねぇよカスw
424 : やってみるといいよカス
425 : >>420 使用したOS内蔵のソフトウェアRAIDに互換性があれば再認識させる事はできる。 USBだろうがiSCSIだろうがRAID構成に使用できるデバイスとして見えるなら元のアレイを取り戻す事はできる。 その気になればRAIDを構成するディスクすべてをそれぞれ別のマシンのiSCSIターゲットから提供してもらって構築する事もできる。 もちろんCentOSでできるかどうかは自分で調べてくれ。
426 : 横から失礼 LinuxのSoftwareRAIDって結構柔軟なんですね。 構成に必要な設定はそれぞれのHDDに含まれてて、ディスクが揃えば構成は元に戻る。 って事なんかな? それともmdadm.confが残ってること(また自力でなんとか書き起こせた場合)が前提?
427 : >>422 ソフトウエアRAIDだと戻りそうだが、ハードウエアRAIDだと戻らないだろうね
428 : >>426 以前オレがやったこと。 その1 マザー4ポートとRAIDカード4ポートにHDDを接続してソフトウエアRAIDで構築 ↓ RAIDカード8ポートのものに交換 ↓ 何も考えずHDD8台接続 ↓ 起動したらそのまま使えた その2 OSドライブにUSBメモリを使い debian 5.0 lennyでソフトウエアRAID組んで運用 ↓ OSドライブを交換するため、USBメモリを外すと同時にソフトウエアRAIDを組んでたドライブを全部外す ↓ HDDに交換 debian 6.0 squeeze クリーンインスコ ↓ ソフトウエアRAID組んでたドライブを取り付ける ↓ 再構築 ↓ マウントしたら、データ残ってて普通に使えた
429 : ふむふむ てことは、Linuxから認識が出来て、 パーティションをいじらない限りは 普通に使えそうですね。
430 : >>426 >>429 パーティションなりディスクボリュームなりの最後にスーパーブロックがあって、 そこにマジック書き込んであって認識される。 RAIDのどのタイプか、何番目のディスクか、動作状態は健全かデグレートか等々。 したがってRAIDから外したディスクを再利用するつもりなら --zero-superblock しとかないと、既存のRAIDの一部とみなされて後々変なトラブルが出る。 >>427 ハードウェアRAIDでも同じ。ディスクのどこかに「しるし」を書き込むよ。
431 : 追記。 「変なトラブル」の大半は、RAIDボリュームの一部なのに他と合わないので RAID構成から外すとかRAIDの方も停止状態にした、というもの。 各ディスクには出来上がったRAIDボリュームのUUIDと動作状態の チェックサムも記録されているので、偶然の一致は無い。
432 : >>430 > ハードウェアRAIDでも同じ。ディスクのどこかに「しるし」を書き込むよ。 無責任に一般化するなよw
433 : >>432 無知乙
434 : >>433 無知とか何とかって話ではなく、 この話がそもそも >420 からの続きだってこと 理解してるのか? つか一言でハードウェアRAIDったって 例えば3wareとRocketRAIDじゃ 全然違うだろうに 更に言えば機種後との互換性すら メーカーごとに全然扱いが違うんだが
435 : >>433 メーカーAのカードでハードウエアRAID組んだドライブを メーカーBのカードにつないでハードウエアRAIDにしても問題なく今までのデータ使えるんだ?w
436 : その「しるし」がハード固有だって事ぐらい分かるだろ? それを挙げ足取りみたいにして喜んでさ、根暗だよね〜。
437 : >>434-435 ここまで頭のわるいやつらだったとは
438 : >>420 にはソフトウェアRAIDって書いてあるのに 延々とハードウェアRAID基準で語るとか 日本語が不自由な奴が多いのか
439 : >>437 ソフトウエアRAIDの話をしているのにハードウエアRAIDの話に持っていく そして、ハードウエアRAID固有の問題を挙げると揚げ足取りとか言う 馬鹿なのかアホなのか
440 : 次スレ案 【ハードも】RAID総合スレッド No.6【ソフトも】
441 : ハードも可とすると、自作PC板の http://hibari.2ch.net/test/read.cgi/jisaku/1303039530/ との住み分けも考える必要がありそうすね。
442 : 次スレ案2 【ソフトでも】Linux de RAIDスレ No.6【ハードでも】
443 : ハードウェアRAIDの最低ラインはMegaSASにしようぜ(w
444 : >>442 懐かしすぎて吹いた
445 : >>443 ハードウエアRAIDは使ってないからわかんないけど、 ハードウエアRAIDをLinux板でやる意味はあるの? 自作PC板かハードウェア板でやったほうが有意義では?
446 : 自作板にはすでにRAIDカードのスレがあるよ。 RAIDカードあれこれ 43枚目 ttp://hibari.2ch.net/test/read.cgi/jisaku/1303039530/
447 : 総合スレなんだから総合らしくやればいいだけのこと
448 : ハードウエアRAIDでアレイ構築してるのにlinux板のRAIDスレで何聞くんだろ?
449 : ドライバ関係とかツールのインストール関係とか Linux依存の話はいろいろあると思うが
450 : 次スレ談議は950あたりでやればいいよ。
451 : >>434-436 異方式での互換?「藁人形論法」なんて幼稚な事しなさんな。 ソフトウェアRAID込みでRAID共通化の提言は確かインテル主導で (アンド、mdadmの人も入ってる)だいぶ前からあるはずだけど、 はたしてまとまるのかねえ。 >>432 ではその事例を挙げるべし。教えてもらえると助かるよ。 >>445 dmraidがあるんだから、語ればいいと思う。
452 : アホは放置の方向で
453 : なんだ、反論できないからアホ呼ばわりかw
454 : mdraidのsuperblockを修正するツールのraidzapについてなんだけど。 これって、superblock1.0にも対応してる? 先日、謎の瞬断で四本のディスクで構成していたraid5アレイが崩壊してしまい修復を図っているところなんだけど、ツールだとno superblockとかなってしまう。 でも、mdadm --exmineだとちゃんと表示されるんだよな〜。 1.0系と0.9系のsuperblockでは書き込まれている場所が違うからなんじゃないかと思っているんだけど。 ソースみても読み込み位置を指定する部分がよくわからない。。。
455 : >>454 対応していない 0.9と1.xではsuperblockの構造体が違う raidzapは0.9系の構造体使ってる 位置は末尾決め打ち
456 : >>454 なるほど、ありがとう。 だが・・・困ったなぁ。。。 md.cに何かヒントないかな。
457 : 455へのレスだった・・・ごめんなす。
458 : >>454 mdadm -A -l<level> dev dev... とかやって無理やりassembleしてもだめだった?
459 : >>458 --forceとかつけてやってみたんだけど、ダメだった。。。 # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md1 : inactive sdb1[1](S) sdd1[5](S) sda1[4](S) sdc1[2](S) 7813690476 blocks super 1.2 全部、なぜかスペア扱いwwww
460 : ちょっと情報が少なかったので補足。 ・もともと、sd[abcd]1でRAID5を構築していた。 ・東京電力が謎の瞬断。 ・ログを見ると、sdaとsddが外れていた。 ・assembleかけてみたが、なぜかスペアで組み込まれてしまう。。。 ログを見ると、(ほとんど差は無いが)時間的にはsda、sddの順で外れていたので、 復旧の方向性としては、まずなんとかsddを組み込んで縮退状態での起動を 目指す…でいいよね?
461 : RAID組んでるならUPSぐらい…… # 今まで日本は恵まれていたんだよ。これからは海外並みにUPSが当たり前。
462 : >>460 -A sd[bcd]1が無理なら--createする時に縮退で組めば resyncが発生せずにメタデータ上書きだけでデータ本体はそのまま残る。 --createするときはチャンクサイズとかレイアウトとかも要設定。 まずは仮想マシンで手順とか確認。
463 : >>461 まぁ、それを言われちゃうと申し訳ないとしか言えないが… 計画停電もあったし、アキバで中古のUPS買おうとは思ってたんだけどなぁ。 >>462 createは最後にやってみようと思う。 おそらく、そこは失敗すると二度と戻れない手順ですよね。 もう少し、Faultyフラグを書き換える方法をいろいろ調べてみます。 ちなみにcreateする場合、自分の場合だと構成デバイスはsddだけにして、missing にsd[abc]入れる感じ?
464 : >>463 各ボリュームがどこの位置にあったのかは-E /dev/ボリュームのDeviceRoleでわかる Device Role : Active device 0 Array State : AAAA ('A' == active, '.' == missing) createする時のdevicesは--detailのRaidDevice順になるからアレイから見て抜きたいところにmissing入れる なので元々dev.No = sda.0/sdb.1/sdc.2/sdd.3 となっていてsddがDevice Role=3で新規アレイの3の位置に戻して-Cするなら -C (中略) -l5 -n4 missing missing missing /dev/sdd になる。dev.noは上のままと仮定して0抜きの1/2/3で縮退-Cでstartする場合のdevicesは missing /dev/sdb /dev/sdc /dev/sdd になる 失敗してもアレイのメタデータが飛ぶだけでLVM/PVに使っていてもそのメタデータが 破損する亊はないけどその状態で書くと多分死ぬ 各アレイの頭4096 sectorsずつくらいddでコピーして仮想マシンで試すとかいうのも手
465 : >>464 まじですごい!!! createで復活したよ!!! いくら、礼を言っても足りないくらいだ。 最初、lvmがinactiveになっていてactivateする必要はあったけど、見事に復活しました。 mount直後にext4の自動修正が走ったので、多少はデータに欠損があったのかもしれないが、いまのところ壊れたファイルは無さそうです。
466 : これは素晴らしいノウハウなので、復旧した流れををちょっと書き記します。 ちょっとログが流れてしまったので、一部記憶を頼りに書いています。 > 各ボリュームがどこの位置にあったのかは-E /dev/ボリュームのDeviceRoleでわかる > Device Role : Active device 0 > Array State : AAAA ('A' == active, '.' == missing) # mdadm -E /dev/sd[abcd]1 | grep Role Device Role : Active device 0 Device Role : Active device 1 Device Role : Active device 2 Device Role : Active device 3 # mdadm -E /dev/sd[abcd]1 | grep State Array State : AAA. ('A' == active, '.' == missing) Array State : AAA. ('A' == active, '.' == missing) Array State : AAA. ('A' == active, '.' == missing) Array State : .AA. ('A' == active, '.' == missing) > createする時のdevicesは--detailのRaidDevice順になるからアレイから見て抜きたいところにmissing入れる # mdadm --detail /dev/md1 (中略) Layout : left-symmetric Chunk Size : 512K (中略) Number Major Minor RaidDevice State 4 8 1 0 failure 1 8 17 1 active sync /dev/sdb1 2 8 33 2 active sync /dev/sdc1 3 8 49 3 failure 5 ? ? ? spare /dev/sda1 6 ? ? ? spare /dev/sdd1
467 : # mdadm -C /dev/md1 -c512 -l5 --layout=left-symmetric -n4 missing /dev/sdb1 /dev/sdc1 /dev/sdd1 以下、復活後の確認 # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md1 : active raid5 sdd1[3] sdc1[2] sdb1[1] ちょっと怖いが、sdaも瞬断で外れただけで、壊れていないと判断してスペアに組み込んだ。 # mdadm --detail /dev/md1 Version : 1.2 Creation Time : Sun May 29 02:46:23 2011 Raid Level : raid5 Array Size : 5860267008 (5588.79 GiB 6000.91 GB) Used Dev Size : 1953422336 (1862.93 GiB 2000.30 GB) Raid Devices : 4 Total Devices : 4 Persistence : Superblock is persistent Update Time : Sun May 29 03:29:10 2011 State : clean, degraded, recovering Active Devices : 3 Working Devices : 4 Failed Devices : 0 Spare Devices : 1 Layout : left-symmetric Chunk Size : 512K Rebuild Status : 6% complete Name : sa22c:1 (local to host sa22c) UUID : edb063f2:f934a5bb:1bf36d16:54d746ca Events : 7 Number Major Minor RaidDevice State 4 8 1 0 spare rebuilding /dev/sda1 1 8 17 1 active sync /dev/sdb1 2 8 33 2 active sync /dev/sdc1 3 8 49 3 active sync /dev/sdd1
468 : それにしてもHDDは、まだ買ってから3〜4ヶ月のWD20EARSなのに外れなのかなぁ。。。 5本買って、1週間で1本ぶっ飛んで交換してもらったというのに。 とりあえず、sdaとsddの2本は心配なので早急に換装を検討します。 もう、WDは買わない。 あらためて、464には本当にお世話になりました。 有難うございました!
469 : WD20EARS 5本を常用してる私が来ましたよ。 454さんのような復旧時にはresync必須だけど、その逆で。 create/assemble 時に state:clean にして sync を省くオプション。 --assume-clean xfs@64bit がスタック問題で固まってた頃に多用しました。
470 : こうやって問題が解決したときに結果を報告してくれる人ってのはすばらしいと思う お疲れ様&情報ありがとう。
471 : https://raid.wiki.kernel.org/index.php/Initial_Array_Creation そういやどっかのPerl MongerがRAID5構築時に無責任に--assume-clean勧めてたっけ
472 : 無責任艦長
473 : タイラー!!!
474 : RAID10のリビルドはRAID6と比べて早いのではと想像しているのですが、 この考えは正しいでしょうか? 全部同一の2TBディスクを使ってのLinuxソフトウェアRAIDですが、 ・6本でRAID6 を、 ・8本でRAID10 に変更した場合、容量がざっくりレベルで同じになってリビルドが早くなるなら 変更したいと考えています。 現状のRAID6だと故障からリビルド完了までに丸2日近くかかっています。 構成は、Pen4マザーにPCI-SATAカード4枚刺しにしてディスクを分散して います。この構成を変えずにリビルド時間を短縮するのが目的です。 アドバイスお願いします。
475 : 補足ですが、データは全て別マシンにフルバックアップがあります。 変更といいつつアレイががっさり再構築になることは理解しています。
476 : >>474 その「リビルド」とやらを、一体システムの何が律速してるのか調べろよ。 ちょっと考えるだけでも ・パリティ計算を行うCPU ・SATAコントローラがぶら下がるPCIバスの帯域幅 ・SATAコントローラ自体の性能 ・SATAの帯域幅 ・ハードディスクの速度 あたりが律速する要因だろう、と見当はつくだろ。 CPUが律速してないのにRAIDの構成いじってもあまり意味は無いぞ。 あと、Linuxのmdアレイはリビルドだけでマシンパワーを使い切らないようにリミッターが かかってるから、その辺もありうるな。
477 : >>474 他にもボトルネックになっている可能性はあるけど、PCIバスが確実にボトルネックになるので 構成変えずに頑張っても大して効果はない。 ちなみにうちの2TBx5(RAID5)でのリビルドは、半日はかからなかったはず。
478 : ちょっと質問です >RAID5はRAIDボリュームクラッシュ時に手の打ちようがない >RAID10の方がまだマシだからRAID10にしておいた方が良い と言う話を聞いた事があるんだけど、RAIDボリュームクラッシュ時からの 回復率ってRAID5(RAID6,RAID-Z等含む)とRAID10で変わるのかな?
479 : >>478 簡単に計算してみる。 RAID5は10台中2台以上破損で回復できない。 RAID10は10台中6台以上破損で回復できない。
480 : >>479 A-A' B-B' C-C' D-D' E-E' A-A'が同時に壊れる可能性もあるわけだ。 そう考えると簡単な計算すら難しくなりそう。 ちなみに、俺には計算出来ない。数学は高一で放棄したから
481 : RAID6+スペア2台で任意の4台までOKですよ(リビルト中に壊れない限り) スペア2台は一台目死亡時点でで気づく様な仕組みにしておけよ、と思ってしまうけど
482 : >>481 つauto rebuild
483 : HDD4 RAID6 / Hot Spare 6 そうそう壊れないだろw
484 : アレイのI/Fが2つ以上に分かれていて そのうち1つのI/F死ぬとコロっといくかもな
485 : それはどのRAIDでも言えること
486 : 初心者です。質問させて下さい。 HDD2台でRaid0を組んだ場合のバックアップの取り方なんですが、どのようにされていますか? Raid対応のバックアップソフトが市販されてますが、やはりバックアップ用のHDDも2台必要なのでしょうか。 できれば費用を節約して1台に集約したいのですが。
487 : ・・・
488 : >>486 1GB HDD×2のものを2GB×1にバックアップしたいって意味? …じゃなさそうだな…
489 : >>488 いえ、その通りです。 2台のHDDにストライピングしたデータを1台のHDDでバックアップしたいのです。
490 : そんなの、十分な容量のバックアップ先にコピーでも何でも好きにすりゃいいんじゃない? その容量なら、その辺で売ってる安いUSBメモリでも間に合うぜ?
491 : >>490 それは単位間違いじゃないか。 そもそも、1GBうんぬんは質問者の >>486 が言っているわけじゃなく、>>488 のコメントだし。 >>486 このスレだと、RAID"0" はバックアップいらないデータの置き場所っていう感じあるからなぁ。 1台で容量足りないならバックアップ先も RAID 組むしか無い。 そもそも RAID0 でバックアップもとりたいなら RAID10 組むことが多い気がする。
492 : ところで、ubuntu 道場で NAS の話が出ていて、 ttp://ascii.jp/elem/000/000/619/619406/index-4.html RAID 組んだら定期的に dd of=/dev/null if=/dev/sda とかでデータなめておいた方が いいとかあるんだけど、結構常識だったりする? はじめて聞いたんだけど。
493 : その理由を書いていないのでオカルト。 そもそもddでなくてもmdにアレイの整合性をチェックさせて 問題があればエラーを吐かせる為のメソッドがsysfsに用意されてるし
494 : >>491 >>486 で質問した者です。 十分な容量のHDDさえ用意できれば1台でバックアップ取れるのでしょうか?つまり、 ストライピングでHDD2台に分散させたデータを通常の形のデータ(Raid0構成でないシステムでも読めるデータ)に戻してHDD1台に保存できるのでしょうか?
495 : いや普通にバックアップとればいいんじゃないの? 何悩んでるかしらんが
496 : >>494 RAIDを実際に使ったことないの? 使えば分かるがRAIDってのは大雑把に言って 「複数のHDDを一つのHDDとして扱う技術」だ。 OSからはまとめて一つのHDDに見えてるんだから 扱いとしてはHDD 1対1のコピーと何も変わらんぞ。 むしろ構成してる物理HDD別々にバックアップをする方が大変。
497 : >>495 >>496 まだ実際にRaidで組んだことがないもので・・。アホな質問で申し訳ありませんでした。 普通にできるんですね。 どうもありがとうございました。
498 : RAIDに詳しい人が多いようなので質問します。 今、センチュリーのCRIB35EU3という外付ケースを利用してRAID5を組んでいるのですが 先日、バックアップをとろうと電源を入れ、アクセスしようとすると フォーマットされていませんというメッセージが表示されるようになりました。 おそらく論理障害だと思いますが、簡単に直す方法などありますでしょうか? ※FINALDATAでは中身を見ることができました。ただいまバックアップをとっています。
499 : 板名音読しろ
500 : OK牧場かYahoo痴恵袋行け
501 : Ubuntu初心者板でも匙投げられたのでどうかご教授お願いします 【初心者スレ】Ubuntu Linux 67 http://hibari.2ch.net/test/read.cgi/linux/1311389692/351 > 恐れ入ります > 私のマシンは少し構成が入り組んでいるのですが、Ubuntuをどのような手順で入れればいいでしょうか > 特に4ポートのRAIDボードが邪魔をして、この間もWindowsXPとのデュアルブートを試みたのですが > ブートドライブにインストールされないで、他のRAID1を破壊するだけの結果におわりました > ご指導よろしくお願いします > > マザーボード:P7P55D-E > メモリ:2Gbyte×2 > > 現在オンボードはIDEモードでSATA→eSATA変換ブラケットで2台HDDが外付けになっている > ただし、それらはブートドライブには使わない > > PCI及びPCI-exスロットの並び > 1:HighPoint Rocket RAID 3120(それにHDD2台でRAID1)→ブートドライブ > 2:玄人志向 GF210-LE512HD(nVidiaグラフィックボード) > 3:玄人志向GbE-PCIe(LANボード) > 4:カノープスMTV1200FX(使用禁止にする予定) > 5:空き(SATA→eSATA変換ブラケット×2にて2台ハードウェアRAIDを装着中) > 6:CMI8738-4CHPCI(サウンドボード) > 7:HighPoint Rocket RAID 2300(それにHDD4台でRAID1×2セット)→データドライブメインとバックアップ > > 音も鳴るのにどうしてこうなった…orz > 厳密には3120がハードウェアRAIDボードで2300はソフトウェアRAIDボードなのにUbuntu板ではそう思っていないようです
502 : そう思っていないとは、どう思っているのかがその文からは全然わからん
503 : ブートに使うドライブだけ付けて OS をインストールして、 インストールが終わったら順番に付けろ。 そもそも OS インストールを助けるスレじゃねぇぞ。と。
504 : >>501 > Ubuntu板ではそう思っていないようです すでに手放して久しいんだが、RocketRAID(めんどくさいから以下RR)2300はHighPointのドライバ入れないと 「Marvell製コントローラを搭載したnon-RAIDなSATAアダプタ」として認識されるんじゃなかったかな? 今でもそうだったら、Ubuntuスレが正しい。 RR3120のアレイにインストールできないのはよく知らん。 HighPointのサイト見たら「Ubuntu 8.10以降ならカーネルにRR3120のドライバ入ってます」とかゆってるけど。
505 : RAID童貞です。Windowsなんですけどここでいいですか? いいとして質問します。もし他に適当なスレがあれば誘導してください。 現在データは全て外付けHDDに入れて、もう1台の外付けHDDにバックアップソフトで 定期的にミラーリングしています。 それだとちょっと面倒なのでRAID1でミラーリングしたいです。 ちなみにこれを使う予定です。 http://buffalo.jp/product/hdd/external/hd-wlu3_r1/ 本文が長すぎると2chに怒られたので分割します。
506 : 続き 質問1 RAID1を構成した2台のHDDは、PCからは1台のHDDとして見えるとのことですが、 他のPCに繋いでも同じように動作するのでしょうか。 質問2 RAID1を構成した2台のどちらか一方または両方を、後でRAIDではなく普通の 外付けHDDとして読み書き削除したり、それを再度RAID化したりできるのでしょうか。 質問3 一方のHDDが壊れてももう一方が生きていればそのまま問題なく使えるのはいいのですが、 壊れたことはどうやって知るのでしょうか。 質問4 RAID1の2台のHDDをTrueCryptで暗号化した場合、ヘッダは2台共通でしょうか、別々でしょうか。 また、壊れた場合の復旧も含めて、暗号化しない場合と全てにおいてまったく同じように使えるのでしょうか。 それとも何か制限があるのでしょうか。 以上初歩的な質問で申し訳ありませんがよろしくお願いいたします。
507 : Linux板で >Windowsなんですけどここでいいですか? とか、ネタなら笑いどころがわからないし、本気なら人生やり直しが必要
508 : >>506 回答1-4 HDD買って自分で全て試してから質問しろ まあがんばれ
509 : (1)YES (2)NO (参考:ttp://www.touki.info/howto/howtoReadRAID1.html) (3)外付けならBEEPが鳴ったり、付属ツールで知ります (HW RAID I/F の場合は、それら機能はカード側に有り) (4)仮想ドライブの実態はファイルです(これで意味が分からなければ TrueCrypt は使わないほうが良いかな?)
510 : >>509 ブロックデバイスそのものをTruecryptで暗号化できるぞ。その上でext3,4なりxfsなりでフォーマット可能
511 : >>509 何か問題が生じたときに面倒そうですね。 やっぱり私にはRAIDは敷居が高そうなので、今まで通り、暗号化したHDD2台を 手動でちまちまミラーリングすることにします。 ありがとうございました。
512 : 手動バックアップできるならそのほうがいいよ。 操作ミスで消してしまってもバックアップから戻せるし。 RAIDだと両方同時に消えちゃうんだぜ。
513 : highpoint RR2740で起こっている症状なんですが、おしえてください。 RAID5 windows7 ultimate64 2TBX4 アレイ3個で運用していたのですが 増設して3TBX4のアレイを追加したのですが 再起動するとアレイが消滅してlegacy の表示になっていました。 2740のwindowsドライバをアップデートしたらアレイが消滅することはなくなったのですが bios画面では相変わらずlegacyの単独ドライブが2個表示される異常な状態 でも、windows 上ではアレイが認識されて使用出来ます。 3TBはまだ完全に対応しきってない、ということなのでしょうか?
514 : 板違いだつってんだろクソが
515 : >>513 1.ハードディスクを窓から投げ捨てる 2.RR2740を電子レンジで30秒ほどチンする 3.Linuxに入れ替えてからこのスレを再訪する これで君を悩ます諸問題は解決だ。おめでとう。
516 : ZFSで運用した場合、トランザクション管理されるため、 RAID 5書き込みホールの問題は起こらないという認識で間違いないですか?
517 : Native ZFS for Linux ってもう使ってる人多いのかな?
518 : >>513 ですがぼーっとしてた ごめん。
519 : >>509 質問2はRAIDカードによるよね?
520 : RAIDカードによらずともマウントする際に色々パラメータ弄ってやればマウントはどれも可能なはず
521 : mdraidは最初は対応してなかったraid6に対応したみたいに、raidZ対応したりしないのかな それだとext4であと5年は戦えるきがするんだ resize2fs(resize4fs?)が16Tの壁乗り越えてくれればだけど
522 : mdadmで構成したHDD4台のRAID5アレイでhdd側に障害が発生。 一時的に構成しているHDDが通電していない状態になったようなのですが、 瞬断と思い電源コネクタを付け直してサーバの再起動をしました。 すると/proc/mdstat上で構成しているHDD4台全てが [S]が付いて全台スペアディスクになってしまっているようです。 おそらくこれが原因でmdadm.confに記入していても自動で起動できず inactive の状態からアレイを起動できません。 強制的にアレイの起動をかけても、 no superblock assembly のエラーを吐いてしまう状態です。 スペアディスクの属性をクリアできればよいような気がするのですが、ここからの復旧方法についてアドバイスいただけないでしょうか。
523 : 詳細1 # cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md126 : inactive sdh1[4](S) sdg1[2](S) sde1[1](S) sdb1[0](S) 7814049792 blocks super 1.2 md127 : active raid5 sdd1[3] sdc1[0] sdf1[1] 5860528128 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU] unused devices: <none>
524 : 詳細2 # mdadm --examine /dev/sdb1 /dev/sdb1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f Name : ubuntu:0 (local to host ubuntu) Creation Time : Sun Jul 24 23:50:32 2011 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB) Array Size : 11721071616 (5589.04 GiB 6001.19 GB) Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB) Data Offset : 2048 sectors Super Offset : 8 sectors State : active Device UUID : 8c8ddf45:f164c9ed:a130b98c:2d811627 Update Time : Sun Sep 4 23:10:41 2011 Checksum : fdf9230e - correct Events : 83 Layout : left-symmetric Chunk Size : 512K Device Role : Active device 0 Array State : AAAA ('A' == active, '.' == missing)
525 : 詳細3 # mdadm --examine /dev/sde1 /dev/sde1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f Name : ubuntu:0 (local to host ubuntu) Creation Time : Sun Jul 24 23:50:32 2011 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB) Array Size : 11721071616 (5589.04 GiB 6001.19 GB) Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB) Data Offset : 2048 sectors Super Offset : 8 sectors State : active Device UUID : 5198bcfd:a5d03642:14c34e0b:06a622d4 Update Time : Sun Sep 4 23:14:18 2011 Checksum : 35e6562b - correct Events : 1234 Layout : left-symmetric Chunk Size : 512K Device Role : Active device 1 Array State : .AAA ('A' == active, '.' == missing)
526 : 詳細4 # mdadm --examine /dev/sdg1 /dev/sdg1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f Name : ubuntu:0 (local to host ubuntu) Creation Time : Sun Jul 24 23:50:32 2011 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB) Array Size : 11721071616 (5589.04 GiB 6001.19 GB) Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB) Data Offset : 2048 sectors Super Offset : 8 sectors State : active Device UUID : 256bfd77:421f8083:95a02e33:19164d06 Update Time : Sun Sep 4 23:14:18 2011 Checksum : 4b7ac530 - correct Events : 1234 Layout : left-symmetric Chunk Size : 512K Device Role : Active device 2 Array State : .AAA ('A' == active, '.' == missing)
527 : 詳細5 # mdadm --examine /dev/sdh1 /dev/sdh1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f Name : ubuntu:0 (local to host ubuntu) Creation Time : Sun Jul 24 23:50:32 2011 Raid Level : raid5 Raid Devices : 4 Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB) Array Size : 11721071616 (5589.04 GiB 6001.19 GB) Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB) Data Offset : 2048 sectors Super Offset : 8 sectors State : active Device UUID : e81fc343:3e114959:003c90b1:e8d210c6 Update Time : Sun Sep 4 23:14:18 2011 Checksum : 2b2ec42c - correct Events : 1234 Layout : left-symmetric Chunk Size : 512K Device Role : Active device 3 Array State : .AAA ('A' == active, '.' == missing)
528 : おそらくは/dev/sdb1のみが Array State : AAAA ('A' == active, '.' == missing) と成っていてHDD4台ともActiveと認識しているのに対し 残り3台は Array State : .AAA ('A' == active, '.' == missing) となっているあたりが原因のような気がしています。
529 : ナルホド('A'
530 : >>528 Update Timeから、/dev/sdb1が真っ先にアクセス不能になったのは分かるけど、 spareになるのは想像つかん superblockのフォーマット↓ ttps://raid.wiki.kernel.org/index.php/RAID_superblock_formats dev_rolesが0xFFFFになってるのがスペア 異常なDiskと正常(?)なDiskのsuperblockを見比べて見ると何か分かるかも # dd if=/dev/sdb1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc # dd if=/dev/sde1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc
531 : >>530 アドバイスありがとうございます。実行してみました。 # dd if=/dev/sdb1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc 001000 a92b4efc 00000001 00000000 00000000 001010 b1034723 c5fe4c5d bb05fc95 2f0d1678 001020 6e756275 303a7574 00000000 00000000 001030 00000000 00000000 00000000 00000000 001040 4e2c3138 00000000 00000005 00000002 001050 e8e07400 00000000 00000400 00000004 001060 00000000 00000000 00000000 00000000 001070 00000000 00000000 00000000 00000000 001080 00000800 00000000 e8e07800 00000000 001090 00000008 00000000 00000000 00000000 0010a0 00000000 00000000 45df8d8c edc964f1 0010b0 8cb930a1 2716812d 00000000 00000000 0010c0 4e6386e1 00000000 00000053 00000000 0010d0 00000000 00000000 fdf9230e 00000180 0010e0 00000000 00000000 00000000 00000000 0010f0 00000000 00000000 00000000 00000000 001100 00010000 fffe0002 fffe0003 fffefffe 001110 fffefffe fffefffe fffefffe fffefffe # dd if=/dev/sde1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc # /dev/sdb1 側にのみ a92b4efc が存在しているようです。
532 : >>531 sde1のsuperblock飛んでる? だとするとmdadm --examineで表示されるのが変なんだけど 同様に↓は? # dd if=/dev/sdg1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc # dd if=/dev/sdh1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc
533 : >>532 大変失礼しました。 # も含めてコピペしてコメント扱いになっているだけでした。残り3台分の実行結果です。 # dd if=/dev/sde1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc 001000 a92b4efc 00000001 00000000 00000000 001010 b1034723 c5fe4c5d bb05fc95 2f0d1678 001020 6e756275 303a7574 00000000 00000000 001030 00000000 00000000 00000000 00000000 001040 4e2c3138 00000000 00000005 00000002 001050 e8e07400 00000000 00000400 00000004 001060 00000000 00000000 00000000 00000000 001070 00000000 00000000 00000000 00000000 001080 00000800 00000000 e8e07800 00000000 001090 00000008 00000000 00000000 00000000 0010a0 00000001 00000000 fdbc9851 4236d0a5 0010b0 0b4ec314 d422a606 00000000 00000000 0010c0 4e6387ba 00000000 000004d2 00000000 0010d0 00000000 00000000 35e6562b 00000180 0010e0 00000000 00000000 00000000 00000000 0010f0 00000000 00000000 00000000 00000000 001100 0001fffe fffe0002 fffe0003 fffefffe 001110 fffefffe fffefffe fffefffe fffefffe
534 : # dd if=/dev/sdg1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc 001000 a92b4efc 00000001 00000000 00000000 001010 b1034723 c5fe4c5d bb05fc95 2f0d1678 001020 6e756275 303a7574 00000000 00000000 001030 00000000 00000000 00000000 00000000 001040 4e2c3138 00000000 00000005 00000002 001050 e8e07400 00000000 00000400 00000004 001060 00000000 00000000 00000000 00000000 001070 00000000 00000000 00000000 00000000 001080 00000800 00000000 e8e07800 00000000 001090 00000008 00000000 00000000 00000000 0010a0 00000002 00000000 77fd6b25 83801f42 0010b0 332ea095 064d1619 00000000 00000000 0010c0 4e6387ba 00000000 000004d2 00000000 0010d0 00000000 00000000 4b7ac530 00000180 0010e0 00000000 00000000 00000000 00000000 0010f0 00000000 00000000 00000000 00000000 001100 0001fffe fffe0002 fffe0003 fffefffe 001110 fffefffe fffefffe fffefffe fffefffe
535 : # dd if=/dev/sdh1 count=10 2>/dev/null | od -tx -Ax -v | grep -A17 a92b4efc 001000 a92b4efc 00000001 00000000 00000000 001010 b1034723 c5fe4c5d bb05fc95 2f0d1678 001020 6e756275 303a7574 00000000 00000000 001030 00000000 00000000 00000000 00000000 001040 4e2c3138 00000000 00000005 00000002 001050 e8e07400 00000000 00000400 00000004 001060 00000000 00000000 00000000 00000000 001070 00000000 00000000 00000000 00000000 001080 00000800 00000000 e8e07800 00000000 001090 00000008 00000000 00000000 00000000 0010a0 00000004 00000000 43c31fe8 5949113e 0010b0 b1903c00 c610d2e8 00000000 00000000 0010c0 4e6387ba 00000000 000004d2 00000000 0010d0 00000000 00000000 2b2ec42c 00000180 0010e0 00000000 00000000 00000000 00000000 0010f0 00000000 00000000 00000000 00000000 001100 0001fffe fffe0002 fffe0003 fffefffe 001110 fffefffe fffefffe fffefffe fffefffe
536 : superblock上ではスペアになっているDISKは無い /proc/mdstatで"(S)"になってるのは起動時のチェックで エラーがあったからだと思う 起動時のログに何かエラー出てない? あと、↓は実行出来る? # mdadm --detail /dev/md126 sdb1外して再起動すれば復活するような気がするんだけど
537 : >>536 度々ありがとうございます。 /var/log/dmesg 上のログ全ては出し切れないので怪しそうな部分の抜粋です。 ↓/dev/md127に関するログは当然あるが、 /dev/md126に関するログが何も出ていない(エラー系のものも含めて) [ 6.544320] sd 1:0:5:0: [sdg] Attached SCSI disk [ 6.593606] md: bind<sdf1> [ 6.597609] md: bind<sdc1> [ 6.606304] md: bind<sdb1> [ 6.612664] md: bind<sde1> [ 6.619733] md: bind<sdd1> [ 6.622390] bio: create slab <bio-1> at 1 [ 6.622417] md/raid:md127: device sdd1 operational as raid disk 2 [ 6.622420] md/raid:md127: device sdc1 operational as raid disk 0 [ 6.622423] md/raid:md127: device sdf1 operational as raid disk 1 [ 6.622951] md/raid:md127: allocated 3230kB [ 6.623015] md/raid:md127: raid level 5 active with 3 out of 3 devices, algorithm 2 [ 6.623019] RAID conf printout: [ 6.623021] --- level:5 rd:3 wd:3 [ 6.623024] disk 0, o:1, dev:sdc1 [ 6.623026] disk 1, o:1, dev:sdf1 [ 6.623028] disk 2, o:1, dev:sdd1 [ 6.623064] md127: detected capacity change from 0 to 6001180803072 [ 6.639598] EXT4-fs (sda1): mounted filesystem with ordered data mode. Opts: (null) [ 6.651689] md: bind<sdg1> [ 6.662636] md127: p1 [ 6.674039] md: bind<sdh1> [ 6.963670] ses 1:0:7:0: Attached Enclosure device [ 38.039547] Adding 1325356k swap on /dev/sda5. Priority:-1 extents:1 across:1325356k
538 : 気になるログその2 ATA14のHDDでエラー。こいつが今件の初発の原因?? [ 5.680895] /build/buildd/linux-2.6.38/drivers/scsi/mvsas/mv_sas.c 1388:found dev[6:5] is gone. [ 5.685621] ata14.00: ATA-8: WDC WD20EARS-00MVWB0, 51.0AB51, max UDMA/133 [ 5.685624] ata14.00: 3907029168 sectors, multi 0: LBA48 NCQ (depth 31/32) [ 5.689622] ata14.00: configured for UDMA/133 [ 5.689676] scsi 1:0:5:0: Direct-Access ATA WDC WD20EARS-00M 51.0 PQ: 0 ANSI: 5 [ 5.693872] /build/buildd/linux-2.6.38/drivers/scsi/mvsas/mv_sas.c 1388:found dev[7:5] is gone. [ 39.559395] ata14: translated ATA stat/err 0x01/04 to SCSI SK/ASC/ASCQ 0xb/00/00 [ 39.559400] ata14: status=0x01 { Error } [ 39.559403] ata14: error=0x04 { DriveStatusError } [ 39.564298] ata14: translated ATA stat/err 0x51/04 to SCSI SK/ASC/ASCQ 0xb/00/00 [ 39.564303] ata14: status=0x51 { DriveReady SeekComplete Error } [ 39.564307] ata14: error=0x04 { DriveStatusError } [ 39.564735] ata14: translated ATA stat/err 0x01/04 to SCSI SK/ASC/ASCQ 0xb/00/00 [ 39.564739] ata14: status=0x01 { Error } [ 39.564742] ata14: error=0x04 { DriveStatusError } あと、以前も試して同じ結果でしたが # mdadm --detail /dev/md126 mdadm: md device /dev/md126 does not appear to be active. でした。 正常に動作しているmd127は、/dev/md/以下に別名のアレイ名称のシンボリックリンクが作成されていますが md126については、シンボリックリンクは作成されていませんが、 /dev/md126 自体は生成されている状態になっています。
539 : 復旧を継続して試みていますが、 sdb1 のHDDを取り外して起動しなおしても状況は変わりませんでした。 # mdadm -D /dev/md126 /dev/md126: Version : 1.2 Creation Time : Sun Jul 24 23:50:32 2011 Raid Level : raid5 Used Dev Size : 1953511936 (1863.01 GiB 2000.40 GB) Raid Devices : 4 Total Devices : 3 Persistence : Superblock is persistent Update Time : Sun Sep 4 23:14:18 2011 State : active, degraded, Not Started Active Devices : 3 Working Devices : 3 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 512K Name : ubuntu:0 (local to host ubuntu) UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f Events : 1234 Number Major Minor RaidDevice State 0 0 0 0 removed 1 8 65 1 active sync /dev/sde1 2 8 97 2 active sync /dev/sdg1 4 8 113 3 active sync /dev/sdh1
540 : sdb1のHDDを Number Major Minor RaidDevice State 0 0 0 0 removed 1 8 65 1 active sync /dev/sde1 2 8 97 2 active sync /dev/sdg1 4 8 113 3 active sync /dev/sdh1 のremovedの位置に認識させられればアレイを起動できる状態になりそうなのですが、 一旦sdb1のsuperblockを飛ばすなり、パーティションを作成しなおしてからでないとスペアとして組み込めないのですかね・・・?
541 : >>540 取り外したDISKがremovedになってるのは当然 これの↓実行結果は? # cat /sys/block/md126/md/array_state あと、/proc/mdstatでまだ"(S)"付いてる?
542 : なんとか sdb1 をスペアに組み込むところまではたどり着きました。 再起動を何回か実施しているので、 md126 が md127 に入り繰りになってます。 # cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md126 : active raid5 sdd1[3] sdf1[1] sdc1[0] 5860528128 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU] md127 : inactive sdg1[2] sdh1[4] sde1[1] sdb1[5](S) 7814049792 blocks super 1.2
543 : # mdadm --detail /dev/md127 /dev/md127: Version : 1.2 Creation Time : Sun Jul 24 23:50:32 2011 Raid Level : raid5 Used Dev Size : 1953511936 (1863.01 GiB 2000.40 GB) Raid Devices : 4 Total Devices : 4 Persistence : Superblock is persistent Update Time : Sun Sep 4 23:14:18 2011 State : active, degraded, Not Started Active Devices : 3 Working Devices : 4 Failed Devices : 0 Spare Devices : 1 Layout : left-symmetric Chunk Size : 512K Name : ubuntu:0 (local to host ubuntu) UUID : 234703b1:5d4cfec5:95fc05bb:78160d2f Events : 1234 Number Major Minor RaidDevice State 0 0 0 0 removed 1 8 65 1 active sync /dev/sde1 2 8 97 2 active sync /dev/sdg1 4 8 113 3 active sync /dev/sdh1 5 8 17 - spare /dev/sdb1
544 : >>541 # cat /sys/block/md127/md/array_state inactive mdstatの各HDについていた (S) は無くなりました。 ただ、この状態からでもアレイの起動はできずの状態です。 # mdadm -R /dev/md127 mdadm: failed to run array /dev/md127: Input/output error
545 : >>544 sdbって新品? 元々使ってた奴なら、アレイに追加する前に単体で読み書きテストした? とりあえず、強制的にactive # echo active > /sys/block/md127/md/array_state ttp://lxr.linux.no/#linux+v3.0.4/drivers/md/md.c#L3354
546 : >>545 sdbは使い回しています。 まだメーカーのHDDチェックツールでのHDD単体全体のスキャンチェックは完了していませんが、読み込みは問題ないようです。 # hdparm -Tt /dev/sdb /dev/sdb: Timing cached reads: 2108 MB in 2.00 seconds = 1054.63 MB/sec Timing buffered disk reads: 366 MB in 3.00 seconds = 121.99 MB/sec 復旧できなくなる要員になるようなことは極力避けようと思い、sdbへの書き込みチェックはまだ実施していません。
547 : 強制activeを試みましたが原因不明の入出力エラーの状態で、ここにアレイを起動できない原因があるのかもしれません。 # ls -l /sys/block/md127/md/array_state -rw-r--r-- 1 root root 4096 2011-09-11 11:15 /sys/block/md127/md/array_state # cat /sys/block/md127/md/array_state inactive # echo active > /sys/block/md127/md/array_state bash: echo: 書き込みエラー: 入力/出力エラーです # ls -l /sys/block/md127/md/ 合計 0 -rw-r--r-- 1 root root 4096 2011-09-11 11:00 array_size -rw-r--r-- 1 root root 4096 2011-09-11 11:18 array_state drwxr-xr-x 2 root root 0 2011-09-11 11:00 bitmap -rw-r--r-- 1 root root 4096 2011-09-11 11:00 chunk_size -rw-r--r-- 1 root root 4096 2011-09-11 11:00 component_size drwxr-xr-x 2 root root 0 2011-09-11 11:00 dev-sdb1 drwxr-xr-x 2 root root 0 2011-09-11 11:00 dev-sde1 drwxr-xr-x 2 root root 0 2011-09-11 11:00 dev-sdg1 drwxr-xr-x 2 root root 0 2011-09-11 11:00 dev-sdh1 -rw-r--r-- 1 root root 4096 2011-09-11 11:00 layout -rw-r--r-- 1 root root 4096 2011-09-11 11:00 level -rw-r--r-- 1 root root 4096 2011-09-11 11:00 max_read_errors -rw-r--r-- 1 root root 4096 2011-09-11 11:00 metadata_version --w------- 1 root root 4096 2011-09-11 11:00 new_dev -rw-r--r-- 1 root root 4096 2011-09-11 11:00 raid_disks -rw-r--r-- 1 root root 4096 2011-09-11 11:00 reshape_position -rw-r--r-- 1 root root 4096 2011-09-11 11:00 resync_start -rw-r--r-- 1 root root 4096 2011-09-11 11:00 safe_mode_delay
548 : >>547 んじゃ、↓で。"active"と違って縮退状態のままアレイ開始 # echo clean > /sys/block/md127/md/array_state ここまで動かないと、ハードウェア側を疑いたくなるんだけど
549 : たった4台のraid5でなにを大騒ぎしてんだろ…… ステータスのクリーンは筋が悪い。 b1が腐ってるんだろ? 新台入れるか(パチンコみたいだなw) 普通に mdadm -S /dev/md127 mdadm -A /dev/md(新しい数字) -a /dev/sd(e, g, h)1 これが通ったら、 mdadm --zero-superblock /dev/sdb1 ←ここがポイントのはず mdadm -A /dev/md(新しい数字) -a /dev/sdb1 でよかないか? 書き換えるのが怖いなら/dev/sdbをコピーとってからやればよい。
550 : 蛇足。 mdadm -A /dev/md(新しい数字) -a /dev/sd(e, g, h)1 この記法ってあってたかどうか自信ない。 素直に mdadm -A /dev/md(新しい数字) -a /dev/sde1 /dev/sdg1 /dev/sdh1 にすべきか。
551 : >>550 # mdadm -A /dev/md(新しい数字) -a /dev/sd[egh]1 では? http://www.ioss.jp/sohodiy/mdadm8-1_5.html だと、 # mdadm -A /dev/md(新しい数字) -a /dev/sd['egh']1 だけど。
552 : ああ、思い出した。 >>551 の前者で正しい。 -C の場合は認識順が意図した順番と違っちゃうけど、 -A なら問題ない。
553 : ARC-1880ix-24の"Advanced Configurations"に関するドキュメントってどっかに無いですかね。
554 : mdadmによるRAID6でchunkサイズの違いによるパフォーマンスを計測したのでチラ裏を。 ML110G6 WD25EZRX-00MMMB0を4台(OSは別HDD) CentOS 5.7(x86_64) mdadm-2.6.9-3.el5 各HDD上で2GB領域を作成しmd0を構成 ext3フォーマット WRITE:# dd if=/dev/zero of=/storage/1GB.img bs=1M count=1024 READ :# hdparm -t /dev/md0 計測結果は次レスで。 (ほかにもいろいろテストしたかったけど疲れたのでw)
555 : ■chunk 4k READ :Timing buffered disk reads: 332 MB in 3.01 seconds = 110.46 MB/sec WRITE:1073741824 bytes (1.1 GB) copied, 2.25816 seconds, 475 MB/s ■chunk 64K (default) READ :Timing buffered disk reads: 488 MB in 3.00 seconds = 162.43 MB/sec WRITE:1073741824 bytes (1.1 GB) copied, 2.77056 seconds, 388 MB/s ■chunk 128K READ :Timing buffered disk reads: 548 MB in 3.00 seconds = 182.54 MB/sec WRITE:1073741824 bytes (1.1 GB) copied, 1.72971 seconds, 621 MB/s
556 : ■chunk 256K READ :Timing buffered disk reads: 546 MB in 3.00 seconds = 181.93 MB/sec WRITE:1073741824 bytes (1.1 GB) copied, 1.92294 seconds, 558 MB/s ■chunk 512K READ :Timing buffered disk reads: 522 MB in 3.01 seconds = 173.50 MB/sec WRITE:1073741824 bytes (1.1 GB) copied, 2.23327 seconds, 481 MB/s ■chunk 1024K READ :Timing buffered disk reads: 542 MB in 3.02 seconds = 179.54 MB/sec WRITE:1073741824 bytes (1.1 GB) copied, 4.35082 seconds, 247 MB/s
557 : RAIDなし単体でのベンチマークと見比べたかったな。
558 : /dev/sdb1 として 2GB 領域を作成し ext3 フォーマット、コマンドは同じで。 READ :Timing buffered disk reads: 304 MB in 3.01 seconds = 100.83 MB/sec WRITE:1073741824 bytes (1.1 GB) copied, 3.07366 seconds, 349 MB/s
559 : こないだ作ったraid5は、過去256kだったのをなんとなく 128kに変えたけど、それで無難だったのか。
560 : >>492 ,493 > そもそもddでなくてもmdにアレイの整合性をチェックさせて > 問題があればエラーを吐かせる為のメソッドがsysfsに用意されてるし 読んだ時なるほどれならリビルドの時の障害起きにくくなるなと思ったんだけどそもそもシステムにそういう機能があるからやらなくてok てこと?
561 : 機能があっても使われなきゃ意味が無い RedHat系なら自分で仕込むまでもなくcron.weeklyにraid-checkが入れられる Ubuntuには無いみたいだけどね
562 : >>561 てことはUbuntu(Debian も?)だとraid-check というのを自分で設定するか,dd で舐めるとかしなきゃ駄目ってことなのかな raid-check 調べてみる
563 : HDD2台のraid0とHDD4台のraid5について質問です。 ベンチマークとか見るとHDD2台のraid0が200MB/s、HDD4台のraid5が150MB/sくらいになってるけど、 実際の体感速度はどうなんでしょう? 主に動画編集などで使います。
564 : 体感速度は自分で確かめるしかないべ、マジで。
565 : 編集だから書き込み速度はあまり気にしなくてもいいのかもしれないけど、 それ読み込み速度でしょ。 巨大なストレージの確保で見たら RAID5 でいいんじゃないのかなと。
566 : 1TBのHDD×4でRAID0組んでみた seq READ 400MB/s WRITE 350MB/s ってがんばってる方?
567 : 良い成績だと思うよ ブロックサイズは64KBだっけ?の方が良い成績が残ったような気がする。
568 : だれか助けてください。 CentOS5.7からScientificLinux6.1への乗り換えのさい、 CentOSで運用していたRAID5のアレイがScientificLinuxでmd127と認識されたのが気に入らず、 # mdadm /dev/md127 -f /dev/sd[bcd]1 # mdadm --misc --stop /dev/md127 # mdadm -C /dev/md0 -l 5 -n 3 /dev/sd[bcd]1 としたところ、データが飛びましたorz どうにかしてサルベージすることはできませんか・・・・
569 : 現在分かっていることは、CentOS5.7とScientificLinux6.1では アレイを作る際のメタデータのバージョンが違うようです。 CentOSは0.9で、Scientificでは1.2です。 また、無指定でアレイを構築した際の、chunksizeも違うようです。 CentOSは64K、Scientificは512Kのようです。 もともと64Kだったchunksizeが512Kで構築しなおされてしまったようです。 なんとか助ける方法はありませんか
570 : 連投すみません。 仮想環境で # mdadm -C /dev/md0 --chunk 64K -l 5 -n 3 /dev/sd[bcd]1 とすればデータは無傷だったということは確認しました。 また、一旦chunksize=512Kで構築されたアレイを解除して、 64Kで作り直してもデータは復旧しませんでした。
571 : はたまた連投すみません 512Kで再構築されてしまった場合でも、mkfsなど余計なことしなければ # mdadm /dev/md0 -f /dev/sd[bcd]1 # mdadm --misc --stop /dev/md0 # mdadm -C /dev/md0 --chunk 64K -l 5 -n 3 /dev/sd[bcd]1 で仮想環境では復旧しました。 一人で勝手に騒いですみません。 現実環境のリビルドが完了したら試してみようと思います。 おっちょこちょいな自分の失敗が誰かの役に立てばと思います。
572 : 現実環境でやってみましたがダメでした。 メタデータのバージョンが同じでないとうまくいかないような感じです。 CentOSで64kで構築 ↓ Scientificで512kで構築 ↓ Scientificで64kで再構築 ↓ ダメ ←いまここ です。 これからCentOSで64kで再構築してみます。 まずは仮想環境でやってみようと思います。
573 : バージョンによってメタデータの書き込まれる場所が違うことがわかりました http://hellokitty68.main.jp/wiki/Mdadm#metadata ここにあるように、0.9と1.2ではずいぶんと違うようです。 これは困りました。 さらに、これだけがわかっても自分にはどうしたらいいのかわかりません。
574 : dd でディスク毎に吸い上げて処理したほうが早くないか?
575 : >>574 現在、本番環境でのddでの吸い上げ先がない状態ですが、 ddで吸い上げた後にどう処理すればいいのか教えていただけますか? metadataがあると思われる部分をddでファイルに書き出して hexdumpなんてしてみましたが、どうしたらいいのかさっぱりわかりませんでした。
576 : dd で吸い出してそこで作業したら失敗してもやり直しが効く そのデータがどのくらい大事かに寄るね 失ってもいいのであれば実HDDで作業してもいいかも
577 : >>575 losetupでloopデバイスを割り当てる ddで吸い上げたイメージをdisk1.img, disk2.imgとすると ↓こんな感じでloopデバイスを割り当てられる(未使用のloopデバイスはlosetup -f で確認) # losetup /dev/loop0 disk1.img # losetup /dev/loop1 disk2.img /dev/sd*の代わりに、このloopデバイスでRAID1を作ったり出来る # mdadm --create /dev/md0 --raid-devices=2 --level=1 --verbose /dev/loop0 /dev/loop1 mdadm: size set to 131008K mdadm: array /dev/md0 started.
578 : 吸い上げたイメージ同士でデータとメタデータ領域が重なってるので、稀だけど壊れることないか。 真面目にするならメタデータ領域分は切り貼りして揃えてから再構築、かな?
579 : RAID0組んでるHDDにOS再インストールするときって、そのままOSインストール作業する? それとも、一度、Delete RAID Volumeで崩してからCreate RAID VolumeでまたRAID構築してからOSインストールしてる?
580 : バージョンが同じならそのまま 違う場合は別の環境でテストしてOKならそのまま 違うなら別のPCを用意 かな
581 : >>577 わざわざ丁寧にありがとうございます。 その方法ももちろん考えたのですが、 いかんせん、退避場所がありません。 タイの洪水でHDDの価格が高騰しているため手軽に買えない状況です・・・
582 : さて、今日もシコシコと仮想環境で試行錯誤していましたら、 もしかしたら、完全復活はできなくても 一部の復活はできるかもしれない方法を見つけました。 簡単に言うとアレイをバージョン0.9のメタデータで構築しなおし、 思い切ってfsckをかける方法です。 仮想環境でやってみたところ、とりあえずデータの復活を確認しました。 後は本番環境ですが、>>581 に書いたとおり、HDDが高くてすぐには実行できません。 アレイのサイズが1TBが3台のRAID5なので、余裕を持って2TBを 2本ほどRAID0で動かして作業をしたいところです。 それか、2TB1本にして縮退状態でやるかといった感じです。 ちなみにメタデータ、chunksizeを指定してアレイを構築する場合は以下のようになります mdadm -C /dev/md0 -l 5 -n 3 --chunk=64K --metadata=0.9 /dev/sd[bcd]1
583 : md127の何が気にくわないのか。 自分はそのまま使ってるぞ。 直すスキルがないってのは内緒・・・
584 : >>583 ちゃんと流れを読めよw
585 : 127が気に入らないならアレイ止めてからこれだけでよかったのにずいぶん余計なことを mdadm -A /dev/md0 /dev/sd[bcd]1
586 : /boot を RAID1, swap を RAID0 にして、 あと全部 / で RAID1 にして普通にインストール成功 (ScientificLinux) 再起動してみるとBIOS直後から何も表示せず立ち上がらない。 どうしてかわかる人いる?
587 : >>586 ドライバが足りなくて > /boot を RAID1 のとこで転けてるんじゃ?
588 : >>586 レイドパーティションを/bootにする場合は、メタデータを0.90にしないと だめだよ。それかメタデータを1.2にして、grubを1.0以上にする。
589 : >>587-588 ありがとう。インストーラのバグなのか grub が default では /dev/md0 に入ってしまっていた。 オプションで grub を /dev/sda1 の MBR に書くと起動した。 片方が死んだときのために RAID 構成ディスクの /dev/sdb1 にも grub を入れた。 これで大丈夫だといいんだが。
590 : /bootなんか、わざわざRAIDに置かずに別途USBメモリに保存したほうが トラブルも無く、運用も楽。 そりゃ、万一の時は多少手間が増えるが。
591 : システムとデータ置く場所分けるのって普通じゃないの?
592 : 以前安全第一に色んなRAIDを組んだが、結局実用性のあるのはRAID1または10だって聞いた。 技術屋が習った理論値だけでRAID5,6を勧める洗脳習慣があるがそれで騙されたと。 なぜならHDDの故障は同時に起きることが多いからだそうで、同じ時期・ロットで買うのが常だからそうな。 なので業務では同時期に故障するので上のような結論に至ったと。 まあ時間と費用対効果と実利を追求する立場の経営者らしい発言なんだが。 それと同じ流れが、このサイトの解説(技術屋)とそれに対するコメント >現実にはHDDのロット不良で複数台がある日まとめてイカれることなんかもよくあるので、性能との兼ね合いから1+0と筐体間ミラーで冗長性を確保すんのが堅いんじゃないですかね。 ↑に現れているのにワラタ http://d.hatena.ne.jp/tagomoris/20110419/1303181958 まああくまでも個人趣味のRAID使いとは立ち位置が違うだろうけど。参考まで。
593 : 何故、RAID6は同時に壊れるのに、RAID1や10は同時に壊れないと考えるかね。 何故、業務で重要なデータを扱うのに、別ロット品を用意しないかね。
594 : うむ 危険を知りつつ「同じ時期・ロットで買うのが常」となるのがアホ。 購入先をバラバラの店にするくらいのことは普通するだろう。
595 : RAID Level 5,6の一番のメリットは主に後日の容量拡張に対する低コスト性でしょ。 騙されたというより「××が一番」と単純に決めてかかって 各Levelの仕組みやメリット・デメリットを理解していないだけに見える。 要件に応じて何が一番は変わってくるはずなのだが。
596 : こっちは遊びでやってる訳じゃないんで
597 : 貧乏RAIDなんぞ リビルド時に多数のHDDが同時に負担掛かる 壊れて当然
598 : >>592 > 技術屋が習った理論値だけで 背伸びすんなw 日ごろ本読まないのが分かるぞ。
599 : 同ロットの場合使う前の慣らしで差を付けるようにしてるな 新品のHDDに数十TB書いたり消したりしてからRAID組んだりとか
600 : ここって、ハードウェアRAIDもおkですか?
601 : ソフトウエアRAIDのほうがダメ
602 : むしろRAIDがダメ
603 : しもつかRAID
604 : RAIDはいろいろ怖いは 複数サーバへの自動レプリケーションが一番安全では?
605 : にいちゃんそれはバックアップや
606 : megaRAIDの9260なのですが、 MSMを使って、ホットスペアの登録はできないのでしょうか。 対象ディスクはオンラインにはなるのですが、 ホットスペアにするための選択肢が右クリックメニューが表示されません。 どうすればMSMで可能になるかお願いします。
607 : >>604 両方やるのが普通。
608 : >>607 ですよねー 耐障害をRAIDで追い求めるのは流行らない気がするけど、パフォーマンスとデバイス単独の故障ぐらいはRAIDで面倒みたい
609 : 君はRAIDを誤解している 流行りの問題じゃないんだよ
610 : ってか、この手の記事の結論は「RAIDアレイはちゃんと(バックアップ・レプリケーションも含めて)構築運営することが前提、それを怠っ てたらどのRAIDレベルだろうが信頼性なんてあったもんじゃない」っていう話な気が。 (結局運営管理の余裕度期待値、設置場所の空間効率やストレージの容量効率の限度なども考慮してどれだけイニシャル コストやランニングコストをかけられるか、という話に落ち着くわけだが)
611 : 意味も無くアレイを組んでみる 言葉の響きに憧れてRAID環境を構築してみる HDDを数枚束ねただけで何やらすごいことをやり遂げた気になって満足する そんなRーのようなRAID環境の構築があってもいいと思うんだ
612 : それが自由というもの たとえUSBメモリやSDカードでRAID0を組んだとしても 会社の金や研究室の金でなきゃOK
613 : USBメモリで思い出した 以前10ポートUSBハブとアクセスLED付のUSBメモリでRAID-Z組んで遊んだことがあった I/O発生のたびにチカチカ光って面白かったから展示用にいいかとも思ったけど 結局人前に出す機会が無かったな
614 : Ubuntu12.04LTSとか、GNOMEディスクユーティリティがある環境で mdadmを組み込めば、GUI操作でUSBメモリーでRAID5とか作れるよ。 個々の操作の表現とか、わかんない人にはわかんないかもしんないけど mdadmをCLIで操作するよりは簡単。 RAIDを止めて、USBメモリーを安全に取り外すための操作もできる。 USBが3系統あるM/Bなら、USB2.0の理論値を超える高速ストレージが作れるよ。 20GBの動画データとか持ち歩く機会があるなら 32GBのUSB2.0メモリーを買うよりも 8GBのUSB2.0メモリー三本をRAID5で使うほうが速い。 よほどCPUが遅くないかぎり、書きこみもRAID5のほうが速いんじゃないかな。 ただ、RAIDを止めずに一本抜くと、当然デグレードになる。 で、抜いたやつを、RAIDに戻すことはGNOMEディスクユーティリティではできないっぽい。 dd if=/dev/zero of=デバイス bs=512 count=1とかやって 管理情報を抹消した上で戻さないといけないんじゃないかな。 (ヲレはmdadm直でaddしなおしたから、よくわかんない) LinuxNASにこういう機能つくとバックアップ用とか嬉しいけど さすがに、三系統のUSBを搭載するのはNAS製品にはコスト高か…
615 : >>614 本気で毎回移動のたびにそれやるのか? 取り外しも面倒、持ち運び先で再構成するのも面倒 コスト云々以前にそんな需要があるとは到底思えん 「20GBの動画データ」程度だったら そんなクソめいどいことやるよりBD-Rにでも焼いた方がマシじゃないか? つか普通に外付けHDDで十分だろう 5000円も出せばその10倍以上の容量のが買えるし eSATA接続のなら速度もUSBメモリの3〜5倍程度は出るだろう
616 : >>614 そもそもDMA転送が出来ないUSBメモリなんかでやっても、元々が超絶に遅いわけでメリットは薄い。
617 : せっかくの中学生の自由研究を、そんな全力で叩いてやるなよ・・・
618 : >>615 HDDで充分? どう考えても、USBメモリー三本持ち歩くほうが HDDを持ち歩くより手軽で気軽だろ。 それに問題は、運んでいるデータが確実に渡せるか? そこ考えない人がRAID板にいるわけ? 外付けHDDなんて、途中で転んだくらいで壊れるかもしんないぜ。 HDDや光学ディスクで二重化して運ぶより RAID5 USBメモリーのほうが手軽で確実だと思うよ。
619 : はいはいワロスワロス
620 : USBメモリでソフトウェアRAIDとかトリッキーな方法をやってて 「運んでいるデータが確実に渡せるか?」ってのは…w > そこ考えない人がRAID板にいるわけ? 何度も書かれている話だが、RAIDってのは「可用性を向上させる」ための技術なんだよ。 そもそもデバイスを何度もバラしたり再構成する時点で危険だと思わんのかな。 そういう用途はまったく考慮されていないんだが。
621 : >>618 実際やってんの?
622 : わざわざ簡単なことを難しくしてどうすんの? USBメモリーでRAID....
623 : きたるべき本番環境のディスク障害に備えて着脱しやすいUSBメモリで 障害時の対応をトレーニングしてるんだよ、多分。
624 : > どう考えても、USBメモリー三本持ち歩くほうが 一体何をどう考えて そのような結論に到ったのか その点には興味がある
625 : 3本それぞれ別なポケットにいれておいて 1本落としても大丈夫とか?
626 : 一本のUSBメモリは簡単に折れちゃうけど、三本束になれば・・・ 毛利元就リスペクトなんだよ
627 : まあ、世の中にはFDRAIDなんてものもあるくらいだからいいんでない?
628 : Mega Floppy 2006:フロッピー13台でRAID - Engadget Japanese http://japanese.engadget.com/2006/04/20/mega-floppy/ これだな。
629 : せっかく持っていったディスクが 壊れてて読めなかった経験が無い人は幸せだと思うよ。やれやれ。
630 : どうしても読む必要があるなら 同じ内容のディスクを複数持ってくだろ 普通は 「確実」が必要なときに イレギュラーな手法でわざわざリスクを冒すのはアホ
631 : バックアップできないときの妥協策だよ。 RAIDはそう思ってつかわないと泣くことになるよ。
632 : >>629 お前まだいたのかw 32GBのUSBメモリが1500円で買える時代にわずかな金をケチって リスクも手間暇も増やして一体何が嬉しいのやら。 毛利元就リスペクトなら素直に32GBのを三つ買えよw どうしてもRAIDが使いたいならそれをLevel 1三面ミラーにする方が1k倍まし。
633 : 少ない頭で精いっぱい考えたんだからあんまりいじめてやるなよ
634 : と、実際に実験も構築も出来ない情弱が妬んでいます。
635 : ププ
636 : ネタじゃなくてガチでRAID5のUSBメモリ持って歩くのか なんというか奇特な奴も居たもんだな
637 : 放置推奨
638 : RAID1ってHDDが壊れたら交換できる点は安心できるが、むしろ本体が壊れてどうにもならなくなるのが不安。 RAID1本体が壊れた場合、HDD1台だけ取り出してPCに繋いで、データそのままに、普通のHDDとして使い続けることってできるの? それとも、RAID1本体買い直さないと、データ復旧できないの?
639 : ソフトウェアRAIDなら安心。 壊れる可能性がある部品点数が少ないことは、直接的に可用性を高める。
640 : 壊れる可能性がある部品点数は大して変わらんだろう。 壊れたとき他のもので代用が利くかどうかが大きいだけ。
641 : ハードウェアRAIDの場合はRAIDコントローラー自体が故障することも珍しくない。 確実に故障する部品が1点多い。
642 : HDD1台でRAID組まないほうが部品点数少ないし、やっぱRAIDはやめとくわ。
643 : しかし、ウィンドウズソフトウェアRAIDの短所としてはRAIDコントローラを使うよりシステム資源をより多く使用するということです。 また、RAIDの構成目的が性能とデータ保護という側面を考えれば、OS従属的なソフトウェアRAID方式が長期的なデータ保存及び管理を難しくすることもあるという点を考慮しなければなりません。
644 : >>642 故障率の計算くらいしろよwww 何の為にRAIDがあるんだw
645 : >>643 ここLinux板なんだけど。 しかも10年前ならいざ知らず、今時ソフトウェアRAIDに必要なリソースなんて鼻クソみたいなもん。 また、データを格納する領域自体はOS従属的なフォーマットを使用するわけで、それで管理がどうこうなんて意味のない発想。
646 : >>638 できなきゃ何のためのミラーなんだ?
647 : >>638 普通のパーティションとしてマウントし、読み書きできるよ、たぶん大抵は。
648 : >>641 ソフトウェアRAIDの場合でも SATA等のコントローラは絶対に必要なんだよ。 だから「部品点数」は大差ない、と。 (それが「壊れる可能性」は違うとしても) ソフトウェアRAIDならハードウェア絡みのトラブルは 絶対発生しないから「安心」などと油断してるといつか酷い目にあうぞ。 俺は酷い目にあったことがあるから断言できるw
649 : >>648 ねえよ。つーか、池沼はレスすんな。
650 : ここまで文脈読めないようでは何やっても酷い目に遭いそうだな>>648 RAIDコントローラ1点という文字すら読めないとは…
651 : mdadm,mdドライバーで運用するソフトウェアRAIDでも 当然ながら、IDEコントローラーやSATAコントローラーが壊れることはある。 これはWindowsで流行りのM/B機能としてのRAID(FakeRAID)と等価。 ただ、FakeRAIDが、故障時に同仕様のパーツを用意せざるを得ないのに対して (M/B内蔵でやれば、実質M/B交換に追い込まれる場合もある) mdドライバーは、任意のHDDコントローラーで補うことができる。 FakeRAIDでは、このM/BとこのM/Bなら入れ替え可能という情報が 明記された公式資料で判断できるわけではない。 あくまでも、同系統の部品で、互換性が得られるものを探すしか無い。 これは、本来のハードウェアRAIDの場合に 「予備のHDDだけでなく、予備のRAIDカードも用意しとけ」 と言われているのと同レベルの問題と考えられる。 mdドライバーは、オンボードのポート三つと SATAカードの2ポートを併用してRAID6を組むことさえ自由。 当然、後から、別のコントローラーのHDDをRAIDに参加させることも自由。 理論上は、HDDが一個だけのノートPCで、HDDに8GBの領域を作って SDカードスロットの8GB SDカードとの間で、RAID1ストレージを作ることもできる。 (ただ、起動時の自動認識とかHibernate時の正常動作の可否は知らん)
652 : 長々書かんでも それは皆知ってるから
653 : >>639 ,642みたいに 勘違いしている人がいるから、まとめて書いてんじゃん。 RAID1の話をしている流れの中で 642のセリフは、どう見ても RAID0をやるかやらないかの話をしているようにしか見えない。 無知とは恐ろしいものだと思う。
654 : >>642 を文字通りの意味に取る人がいることに驚いた
655 : >>641 個人でハードウェアRAIDしてる奴ってRAIDボードぶっ壊れたらどうするんだろうな。 RAIDボードが吹っ飛んだ頃にはRAIDボードの販売打ち切られてるよな。 RAID1以外は、RAIDボードの製品依存だから同じRAIDボードもうひとつ持ってない限り 復旧は絶望的じゃね。
656 : >>655 何が絶望的なんだ? 当然バックアップが取ってあるだろうから 新しいの(別機種でも)買ってきて書き戻せば 特に問題はないと思うが
657 : >当然バックアップが取ってあるだろうから あるといいね
658 : なんで人の状況とか完全無視して「当然取ってる」とか言うんだろう お前の当然は俺の当然じゃねえよ
659 : >>656 バックアップがRAID上にあったら終わりじゃね
660 : そんなのはバックアップとは言わない
661 : うーん。RAID上にあってもいいと思うけど、 せめて最低でもオリジナルとは物理的に別のドライブ、 オリジナルとは別の論理ボリューム上にないとね。 じゃなきゃただのコピーじゃないか。
662 : RAIDとバックアップの違いが分かってないやつが 長期休暇になるたびに沸いて出て来るな
663 : ストライピングをちょっと例外としてあつかうとすると、 RAIDはシステムの冗長性を実現する。 一方、バックアップはデータの冗長性を実現する。 RAIDがバックアップを含んでいるケースがあっても、逆は無い。 データのバックアップだけでシステムを冗長化させることはムリ。 ってとこですか先生!
664 : 違います
665 : 可用性と冗長性を一緒にするな
666 : RAIDがどうこうじゃなくて、バックアップと称する複製先が、 複製元と同じメディア、あるいは同じ論理ボリュームに存在する場合、 バックアップとしての意味がないでしょう、ということが指摘されてる。 何故なら複製元が壊れたら一緒に死んでしまうからです。 なので、RAIDでも何でもいいけれども、とにかく、 複製先は、複製元とは物理的に別のメディア上の、 かつ、別の論理ボリューム上に複製されていなければ、 バックアップとしての意味を成さない、ということだと思います。
667 : はい ついでに地理的に離れていたほうがいいです
668 : >>667 まぁPCが爆破されても復旧できるように… 事業所が爆破されても復旧できるように… それがバックアップというものです。 寝タバコ野郎のせいで、従業員寮全焼を体験したオレが言うんだからまちがいない。
669 : >>666 RAID上にバックアップ取るつったら 同じRAIDボードでバックアップ取ってる訳無いだろ ハードは別と捉えるのが不文律だろ
670 : 流れ読まずに何言ってんだ?
671 : >>668 事業用なら1拠点の水没火災で全滅しないようにしたほうがいいとは思う バックアップのスケジュールやリカバリ手順書の作成・メンテとかは予算に応じてかな RAID関係ないんでそろそろ消える
672 : >>669 不文律を知らないあほなサービスが最近「やらかした」じゃん。
673 : 先生質問です。インテルチップがsata-III, 6GでRAID6対応してるんで こいつでSSDのRAID組みたいんですが sata-III 6G対応のポート数が8本くらいのポートマルチプライヤって売ってないんですか?
674 : あっ6ポート3gで使えばいいみたい
675 : 趣味でやるのをとめるつもりはないけど、個人でRAIDとか復旧が必要になったときに涙目になる将来しか見えない RAIDはある一定レベルまでの故障は耐えるけど、そこ超えたら地獄だぞ
676 : こんなのみつけた つ RAIDON iS2880
677 : >>675 それ、RAIDの異常を監視できてないからでしょ。 データ破壊なら必ずエラーが記録されてるはず。 まぁインフラ系でも、ディスク関連のエラーを管理できるところはほとんどないね。 ていうのも、データ専門系の某企業がそれやってるはずなんだけど どうも中の人達でさえ大変らしい まぁ 所詮白人どもの作ったシステムだからね 結構適当
678 : インテグレータ系じゃ ディスクのデータのエラー管理まで手まわる人材はほとんどいないし かと言って、ディスク管理用ソフトがあるわけでもないし
679 : 本来、こういうのはOSレベルの機能なんだけど 今のところだれもやる気ないみたいだしね 何年か前にグーグルがちょこっとだけデータとってたね
680 : 趣味なら好きにやればいいと思うし、システムとして止めないことを目指しているならもっと大きな枠組みの話になっちまう 金をかけてRAID5とかそれ以上の何かを組むより、異常の疑いのあるノードを検知・排除してスイッチする方がいいってのがGoogleのレポートの結論じゃなかったっけ
681 : 入ってた電気工事の事故で、過電圧? よくわからんけど、 電源一個とRAID5で二台ディスクがぶっ飛んだ。 サーバ自体も冗長化してあったので、あとの二台が何故か無傷で色々助かった。
682 : こんなのもみつけた ディラック DIR-1040SS
683 : >>677 同型のRAIDボードを持ってなかったら ボードが死んだらHDDの中身は全て没 定期的バックアップがんばれよ ソフトRAID組んで楽する方法もあるけど (こっちもバックアップ取ってなけりゃソフト的に壊れたらアウトだけどね)
684 : mdadmはメール飛ばせることくらい知っとくべき。 あと、どっから白人ども、とかずれた話が出てくるんだか…… 夏とは言えちょっと怖いわ。
685 : raidは根本的な欠陥を抱えているんだよ。 なのに、それを冗長化という別の機能性が隠してしまっている。
686 : raidはSPF(Single Point Failure)単一故障に耐えられない。
687 : これからは、プログラマブルraidコントローラみたいなのが欲しいね FPGAみたいな感じでプログラムできるのがいいかも
688 : >>686 ソフトウェアRAIDならそういう問題はない。
689 : >>684 品質に対する考え方がまるで違うんだが? 肉なら、日本人は生で食べても食中毒にならない大腸菌レベルを要求するが あいつらは、焼いて食べて食中毒にならない大腸菌レベルの管理で満足する 日本人と白豚じゃ考え方が根本的に違うよ だから、日本人は個々の品質をひたすら改善しようとする 一方、白豚はそれら若干劣悪な条件の上でも何とかやれる別の方法を考える まぁあいつらと仕事したこともなしにフリーソフト程度の品質で満足するようなら 趣味の範囲でやるならともかく、日本じゃIT系の職業は止めた方がいい。 日本品質と グローバルスタンダート品質の間に苦悩するだけだ。
690 : 簡単に言うと 日本人: 多少コストかけても満足度(カスタマイズ&高品質) 白豚: コスト(利益)最優先(ビジネスだもん♪ 割り切る割り切るw)
691 : ソフトウェアの世界では、明らかに日本は低品質な上に時代遅れだろw
692 : そこにこだわってもしょうがないんじゃねってところに労力を割いてるだけでしょ
693 : 向こうのほうが何から何まで合理的だと思うけどな。 ある程度以上複雑なものを、完成まで持っていく力は、 欧米人にはスゴイもんがあると思う。エンジンしかり、 オーケストラしかり、OSしかり。 日本だと、個人レベルの巧の技、小さいチームの巧の技は尋常じゃないけど、 ある程度以上母体が大きくなると柔軟さや躍動感を失って豆腐みたいなチームになっちゃう。
694 : >>693 豆腐って固かったか?
695 : >>688 本気でそう思ってるのか? ギャグだよね
696 : お前の存在がギャグ
697 : RAIDと単一障害はセグメントが違うからソフトウェアRAIDでは確かに無いな 単一障害に対してはmultipathが対応してるし
698 : なんか「単一障害」を誤解してる人が複数いるようだな http://ja.wikipedia.org/wiki/ 単一障害点 > 単一障害点(たんいつしょうがいてん。英: Single Point of Failure, SPOF)とは、その単一箇所が働かないと、 > システム全体が働かないような箇所を指す。情報システム工学や通信、サプライチェーン・マネジメントなどの > 分野で使われる概念である。単一故障点と訳されることもある。 > 一般的なコンピュータシステムの例では以下が挙げられる。 > > ・ハードディスクをRAIDで冗長化しても、そのRAIDアダプターが1枚ではRAIDアダプター障害時には全体が障害となる > ・RAIDコントローラが2重化されたディスク装置でも、ファームウェア障害や筐体障害の場合は全体が障害になりうる > ・ディスク装置の全ハードウェアを冗長化しても、ソフトウェア障害などによるデータ破損時にはバックアップデータ > が無ければ復旧できない
699 : 一つのシステム上でソフトウェアRAIDを構成した場合、確かに「RAIDコントローラ」という単一障害点は なくなるけど、CPUやメモリが壊れりゃシステム全体が止まるのだから依然として単一障害点は存在する。 完全に単一障害点をなくすためには、構成するすべての要素を冗長化するしかない。
700 : RAID関係ないな
701 : だからセグメントが違うと
702 : うん、だからどこまでの障害に耐えるのかコスパを考えてしっかり検討しましょうって当たり前の結論に達するだけでしょ RAIDを突き詰めるだけで安全ハイパフォーマンスなストレージが手に入るわけじゃない。無理にRAIDでがんばると費用に見合わなくなるし、そもそもそれが必要なの?って疑問点が出てくる そんなことは真面目に物事を考えたことがあるヤツなら誰でもわかってる ここでのメインってそういうガチな話じゃないっしょ 個人でRAID組むのならこの辺がいいよ、とか、なんかRAID-Zとか出たから組んでみたぜ!という人柱報告とか あとは個人でRAID組んでたら障害復旧でこんなめんどくさいことになったよって話が聞きたいな そういう意味ではUSBメモリでRAID6とか好きだぜ ハードウェア板に行ったほうがいいのだろうけど
703 : >>689 知らなかったなら知らなかったって書けよw 肉の話にして誤魔化そうなんてまともじゃない。
704 : >>698 そこでSASですよ?
705 : ESXi5.0 をMegaraid 9240-4iで零度にしています。 仮想ホストとかは、普通に動作しているのですが、 Windows XP(仮想ホストでない)にインストールしたMegaRAID Storage Managerが9240-4iを全然認識しません。 何が悪いのでしょうか?
706 : 機種は異なるが、おいらは、これで解決。 http://blog.livedoor.jp/otonax/archives/7406476.html カクカク ,ィヘ⌒ヽフ ブヒブヒブヒブヒブヒブヒブヒブヒブヒブヒブヒブヒブヒブヒブヒブヒ!! / ( ・ω・)) -=3 ε// し ヘ⌒ヽフ ドッピューーーーーーーーーーーーーーーーーーーーーーーー!! ( ( _,.ノ( ・ω・)) -=3 し しー し─J ブッヒィーーーーーーーーーーーーーーーーーーーーーーー!!
707 : >>685 同意。 実際の運用の現場で故障発生の相関係数が高いことを踏まえると RAIDにはあまり議論されていない課題がある 参考 http://green-rabbit.sakura.ne.jp/blog/2012/09/16/3424/
708 : RAID1の一方が壊れたと思った。 ら、M/B側のSATAケーブル脱落だった。 PCに8本あるSATAケーブルのうち 1本だけ、まにあわせのロックなしケーブルだったんだけど てきめんに、それが抜けた。 ロックなしSATAケーブルと ケーブルをロックできないHDD(2.5インチとかにある)は 議論されるまでもない油断だった。 2.5インチHDDのほうが、抜けないようになんとか固定しているけどね。
709 : ショップブランドPCのHDDのSATAケーブルはテープで固定しちゃうところもあるね ガチガチじゃなくてはがせる程度だけど、708見る限りは脱落事故(クレーム)多いのかな
710 : >>709 多分輸送時に震動で緩むとかじゃないかな
711 : mdRAID5環境で、1台のHDDにセクタ代替が発生した場合 残りのディスクから破損箇所のデータは復元されますか?
712 : セクタ代替?じゃなくて不良セクタだよね。 disk A+B+CのRAID5でdiskAに不良セクタで読み込み不可のデータが 生じたとしたら、当然diskAのデータはdiskB+Cから読みだせる。 ところで、diskAの問題のデータは代替用セクタに書き込まれる はずだけど、代替用セクタが全部うまったらどういう処理が されるんだろうね。
713 : 代替用セクタが使われ始めるようなハードディスクはハードディスク内部での 読み取りのリトライが頻発してヘッドのアームの機械的な部分が 代替用セクタを使い切る前に壊れて使えなくなってくる感じ。
714 : >>712 1. diskAに読み込み不可セクタが発生 2. diskAのハードウェアレベルで代替処理発生(データは破損する) 3. RAIDの整合性チェックでdiskAの代替先にdiskB,Cから正しいデータが復元される って理解であってますか? あと私の環境だと/usr/sbin/raid-checkというスクリプトがcronに登録されてるんですが これで3の処理が行われると考えていいでしょうか?
715 : 今までmdでRAID5してたんだけど、SMB2.1につられてwin8の記憶域プール機能に 乗り換えたんだけど、これすっごい遅い。 mdだったら70MB/s超えるくらいの速度が出てたのに、35MB/sがいいところになった。 同じPCでやってるのに、パフォーマンスは半減。 うーん、残念。
716 : thin provisioningやめろ
717 : >>716 ああ!それが原因か。 でもだいぶデータをいれちゃったから、今更変更はできないなあ。 サンクス!
718 : 【悲報】オレのRAIDメンバーが低速病になった【WD】 ここ数日、HDD LEDが/dev/sde(注:デバイス名が表示されるわけではない)のとこが 点いたままになってんなぁ…と思っていたら、RAID1ストレージが非常に遅い。 録画の大量書き込みに追従できなかったためか、resyncかかってた。 hdparmで見るとudma2になっている…これが世に言う低速病か… ちなみにWD20EARX-00PASB0(FW:51.0AB51)をUbuntu10.04LTS上のmdで使ってた。 とりあえず、対処方法… cat /proc/mdstatでRAIDメンバーのデバイスファイル確認 hdparmで各デバイスの転送速度を確認(で/dev/sdeと特定) fail付けて、removeして、低速病に効くとされるパーティションテーブル抹消 次にうちの場合ホットスワップにとりかかる。 find /sys -name sdeで対象のdeleteの場所を特定(もっとスマートな方法がある気がする) root権限でecho 1 > /sys/......./delete ホットスワップ対応のHDDケージのsdeの電源を落として、数秒後再度投入 (ここで抜いたけど、よく考えたら、電源落としているからわざわざ抜く意味はない) 再認識(用のスクリプト作ってあるけど割愛)させてfdisk -lでデバイス確認。 ddでの読み出しで速度確認(確実性があるかは知らんが、うちはこれで回復してた) あとは、fdiskでfdのパーティション作って、addしてresync待ち。今6.6%。 実は録画ストレージ自体のRAID化は最近やったばっかりで そうで無かったら、致命的ダメージ受けてた、ふぅ…じゃ、仕事行くわ。
719 : intellipark は無効にしてる? もし SMART の Load_Cycle_Count が異常に高い値になってたら、たぶん寿命が近い。
720 : 録画兼ファイルサーバーなので、8基のHDDがありますが 録画用のRAID1は二基とも34000前後 それより古い積ん録及び雑倉庫のRAID5は四基とも27000台 一番古い起動用は、(/var/lib/mysqlがあるからかな)ずばぬけて170万台。 起動用のバックアップにする予定で、放置していた中古HDDは4703。 ということは、2,3万はまだまだ普通の範疇と考えていいんでしょうか? 今回のトラブッたHDD自体は、まだ購入から1,2ヶ月のものでした。 RAIDに使っている6基は、badblocksテスト済みで正常を確認したものです。 つまり起動用HDDが一番故障リスクでかいという片手落ち orz 起動用ドライブをRAID1にしたこと無いのですが、そろそろやるかなぁ… ちなみに今見たら、resync終わってclean。
721 : WD20EARX とかは、だいたい30万くらいで寿命って噂なんで、まだ一割強だね。 ちなみに、うちの WD20EARX は半年くらいで30万突破して、速度低下 -> 認識率低下 -> 動かなくなるって経過だった。
722 : intellipark なんて聞いたこと無くて今確認したら、 うちの WD20EARS 3台は Load_Cycle_Count が125万に達していた……。
723 : うちの、6台でRAID5な、WD20EARSちゃん死んじゃうの? 193 Load_Cycle_Count 0x0032 001 001 000 Old_age Always - 3857098 193 Load_Cycle_Count 0x0032 001 001 000 Old_age Always - 3130065 193 Load_Cycle_Count 0x0032 001 001 000 Old_age Always - 1930449 193 Load_Cycle_Count 0x0032 001 001 000 Old_age Always - 4043078 193 Load_Cycle_Count 0x0032 001 001 000 Old_age Always - 4138466 193 Load_Cycle_Count 0x0032 001 001 000 Old_age Always - 4183900
724 : 400万とか行ってても死なないんだね。 うちのが噂通りのタイミングで死んだからそういうもんかと思ってたけど、はずれ引いたのかな…
725 : データシート上の上限は30万回だよ 低速病や故障との因果関係はわからないが気分的に嫌なので一応無効にして使ってる 20EARS*7台mdRAID5環境、稼働時間15,000時間前後で Load_Cycle_Countは100回程度 linux上からintelliPark切れる非公式ツール http://idle3-tools.sourceforge.net/
726 : うちはファイルサーバー負荷が高いから IntelliParkはあってもいいかな。ただ8秒は短いかも。 PT2録画の書き込み時、あるいは再生するときに どのくらいの間隔が書き込みがあるのか把握していないけど 8秒じゃなくて、30秒くらい待ってからでいいんじゃないかと思う。 あ、今…序録画してるけど、見てみると5,6秒アクセスしないことあるな。 まぁ、逆にそういう仕様になっているから 30万程度では余裕の設計になっているはずだとは思う。 10秒に1度ログを書く仕組みになっていると、その都度止まって 1日にして8万を超える。4日で30万突破だ。 それじゃおかしいだろ(笑)
727 : 誤:うちはファイルサーバー負荷が高いから 正:うちはファイルサーバー負荷が高くないから orz
728 : あ、ごめん、なんか今日疲れているわ。 計算式が完全におかしかった。 さすがに4日は無いわな。 40日くらいでいいんだっけ、なんかもう計算しなおす気もしない。
729 : なんか知らんがお疲れさま
730 : 失礼ですが、DebianでRAIDやLVM(ソフト)を実際に会社で運用している人いますか?
731 : >>730 RAID というのが mdraid ならつかってるよ。 kernel はバニラだし、utility も自前でコンパイルしてるけど、 パッケージのものを使ってもそれほど変わらないと思う。 LVM も一部(バックアップ作成用DBなど)で利用してる。 #(ソフト)は RAID のほうにつけたかった? どちらも、debian に限らず最近の鳥なら、 パフォーマンスを除けば問題なく使えるのではないかな
732 : >>731 > >>730 > RAID というのが mdraid ならつかってるよ。 なるほど。じゃあ、外付けHDDを二台買って、それをUSB接続してソフトウェアRAIDすることも可能であり、 使われているんですね。安心しました。貧乏なもので(^^;)。
733 : >>732 用途や構成によるけど、usb 越しは私なら避けるかな かなりパフォーマンス落ちるはずだし、感覚的な話だが安定性についてもあまり信用出来ない なおsataネイティブの mdraid とか lvm は仮想マシンホストのような高負荷な環境で多用しているが特に問題無い
734 : >>733 > >>732 > 用途や構成によるけど、usb 越しは私なら避けるかな > かなりパフォーマンス落ちるはずだし、感覚的な話だが安定性についてもあまり信用出来ない > > なおsataネイティブの mdraid とか lvm は仮想マシンホストのような高負荷な環境で多用しているが特に問題無い SATAのHDDカスタム仕様だったら安定するんですねぇ。なるほど。ありがとうございます。
735 : eSATA使えばいいんじゃ
736 : >>732 USB接続で使う場合、USB外付けHDD自体が 信頼性に不安をかかえているという説があるから、微妙。 この問題は、USBの電力供給能力,ホットプラグに関する扱い,バスとしての本質的性能 コントローラーチップ,USB-SATA変換基盤などなど、いろんな要素が予想されるが… 実際に、USB外付けHDDで、パーティションテーブルが吹っ飛んだなんて体験をした人が 総じて、技術的知識を持たず、状況を的確に分析しリポートできないため 単なる、誤った運用によるトラブルにすぎない可能性もあると考えられている。 ともかく、USBの一つのコントローラーに2つのHDDを繋いで RAID1を組んどけば、そのリスクは半減する…のかどうかも定かではない。 USBメモリーとかでRAID1,0,5について、短時間のテストはしたけど 信頼性については、どうかと思うよ。ネタとしては面白いけど。 内蔵HDDのデータ用パーティションと USB3.0のHDDの同サイズパーティションでRAID1なら まぁ、わからんでも無いかなぁ…
737 : なお、USB2.0の480Mbpsというスペックは 一つのバスとしての帯域で、個々の端子の帯域ではない。 PCの側面に2つのUSB端子があったとしても 実際には、内部的に分配されたもので 同時利用では、2ポート合計で480Mbpsしか出ない場合がある。 USBハブを介して行なうならなおのこと。 Linuxだとlsusb -tで分配状況がある程度わかるので 組み合わせに注意したほうがいい。 なお、少なくともうちにあるUSB3.0ハブは USB2.0機器を2つ同時に使う場合は USB2.0枠として480Mbpsのバスが使われるようで… USB3.0としては5Gbpsの性能を持つハブでありながら USB2.0x2のRAID0での実性能は30〜40MB/sにとどまる。 USB3.0x2でのRAID0は、普通にRAID0的な高速化が得られる。
738 : >>737 ハブの動作としては間違っちゃいないな。 とゆうか、USBでそういう動作をさせようとすると、HUBが3.0のクライアント且つ2.0のホストにならないとだな。 恐らく、そんなHUBは出ないと思うけど。
739 : なるほど、USB3.0か。ありがとうございます。
740 : Multi TT
741 : >>736 > 実際に、USB外付けHDDで、パーティションテーブルが吹っ飛んだなんて体験をした人が > 総じて、技術的知識を持たず、状況を的確に分析しリポートできないため > 単なる、誤った運用によるトラブルにすぎない可能性もあると考えられている。 耳が痛い…
742 : >>741 > >>736 > > 実際に、USB外付けHDDで、パーティションテーブルが吹っ飛んだなんて体験をした人が > > 総じて、技術的知識を持たず、状況を的確に分析しリポートできないため > > 単なる、誤った運用によるトラブルにすぎない可能性もあると考えられている。 > > 耳が痛い… やっぱり同じ事考えますよねぇ。> USB接続HDD RAID化
743 : Fedora16、mdadmで3TB×6のRAID5を組んでいるんだが、 OS起動時に自動でアレイが起動しないようにする方法ある? 電源オフしてPCケース内いじってOS再起動なんかすると、 たまに1個のHDDの電源ケーブルとか抜けてて、縮退運転でアレイが起動しちゃう こうなると2日とかかかるrecoveryするしかないのが嫌で、常に手動でアレイ起動したい
744 : >>743 /etc/mdadm.conf から該当するDEVICEとARRAY消して、起動後手動で、 # mdadm --assemble /dev/md0 /dev/sd[a-e]1 とかやればいいんじゃ?
745 : 縮退運転のときは起動してすぐメールくるでしょ そこで気づけばrecoveryしなくて済むと思うんだが
746 : 一度縮退したら、歯抜けになったHDDを再度つないでもリカバリはじまったような気がする。
747 : そいやぁ某大手メーカー製サーバにHW-RAIDコントローラーとHDD2台を 純正パーツで追加してRAID1指定して購入したんだが、起動させてみたら RAID1の同期がされてなかったよ。つまりHDD挿してRAID1の設定してすぐ 電源落として納品しただけ。ふざけちょー。
748 : >>744 /etc/mdadm.conf にARRAY書かなくても自動起動する。DEVICEは書いていない。 (2枚のSATA拡張カードのHDDの認識順序が毎回変わるんでDEVICEは書きたくない) >>745 フラッシュメモリとHDDの空き領域使っていろいろ試してみた ●アレイ作成 # mdadm --create /dev/md8 --metadata=1.2 --level=5 --raid-devices=3 /dev/sda2 /dev/md1p2 /dev/sdm2 mdadm: array /dev/md8 started. ●縮退運転でしか起動しなくなる手順 フラッシュメモリ(/dev/sdm)抜く アレイ停止 # mdadm --stop /dev/md8 mdadm: stopped /dev/md8 フラッシュメモリ(/dev/sdm)挿す アレイがフラッシュメモリだけで起動するので停止 # mdadm --stop /dev/md8 mdadm: stopped /dev/md8 縮退運転で起動 # mdadm --assemble --run /dev/md8 /dev/sda2 /dev/md1p2 mdadm: /dev/md8 has been started with 2 drives (out of 3). アレイ停止 # mdadm --stop /dev/md8 mdadm: stopped /dev/md8 通常起動しても縮退運転 # mdadm --assemble /dev/md8 /dev/sda2 /dev/md1p2 /dev/sdm2 mdadm: /dev/md8 has been started with 2 drives (out of 3).
749 : ●縮退運転した後、通常起動する手順1 アレイ停止 # mdadm --stop /dev/md8 mdadm: stopped /dev/md8 フラッシュメモリ(/dev/sdm)抜く 縮退運転で起動 # mdadm --assemble --run /dev/md8 /dev/sda2 /dev/md1p2 mdadm: /dev/md8 has been started with 2 drives (out of 3). アレイ停止 # mdadm --stop /dev/md8 mdadm: stopped /dev/md8 フラッシュメモリ(/dev/sdm)挿す アレイがフラッシュメモリだけで起動するので停止 # mdadm --stop /dev/md8 mdadm: stopped /dev/md8 通常起動する # mdadm --assemble /dev/md8 /dev/sda2 /dev/md1p2 /dev/sdm2 mdadm: /dev/md8 has been started with 3 drives.
750 : ●縮退運転した後、通常起動する手順2 アレイ停止 # mdadm --stop /dev/md8 mdadm: stopped /dev/md8 フラッシュメモリ(/dev/sdm)抜く フラッシュメモリ(/dev/sdm)挿す アレイがフラッシュメモリだけで起動するので停止 # mdadm --stop /dev/md8 mdadm: stopped /dev/md8 縮退運転で起動 # mdadm --assemble --run /dev/md8 /dev/sda2 /dev/md1p2 mdadm: /dev/md8 has been started with 2 drives (out of 3). アレイ停止 # mdadm --stop /dev/md8 mdadm: stopped /dev/md8 通常起動する # mdadm --assemble /dev/md8 /dev/sda2 /dev/md1p2 /dev/sdm2 mdadm: /dev/md8 has been started with 3 drives.
751 : 連投失礼。 結論:良く分からんw >>743 のケースは●縮退運転した後、通常起動する手順1 に近い気がするが、 経験上は一度縮退運転しちゃうと、縮退運転でしか起動しなくなるんだよな。。。
752 : おそらくだけど、RAID関係のモジュールがOS起動時に読み込まれないように すれば良いです。後からinsmodで差し込むスクリプトを書けばいいです。 但しOSが入っている部分はRAID使ってない事が前提だけどね。 initrd関係を細工すれば良いだけだけど、OSの起動プロセスをいじるので この説明だけでわからなければやめときな。
753 : そいやぁ、いにしえの時代、一部のブートセレクターが使っていたMBRに書いてあるファイルシステムのタイプにダミーの 値を書いておいて、自動認識させないって技があるな。 今でも使えるかどうかはしらないが。 まぁ、これも、この説明だけでわからなければやめときな。
754 : >>748 試してないから想像だけど >フラッシュメモリ(/dev/sdm)抜く この時点で/dev/sdmがfail扱いでまだアレイに残ってるとか? 一回removeしてみたらどうかな >>751 まあ起動後に書き込み発生したらその時点でアウトだろうし
755 : 書き込みしなければ(マウントしなければ)resync 不要だったような
756 : 4KBセクタの2TBのHDDx4でmdadm使ってRAID5組んでいるところに、 mdadm --growで512Bセクタの2TB HDDを1台足したいと思ってるんだけど、 RAIDの玉の中で4KBセクタと512Bセクタが混在するのって問題ありますか?
757 : AFTでLinuxからの論理ブロックサイズが512Bに見えてるなら 混在しても動かないとか障害が起きやすいとかは特になさそう。 アライメント揃える話もパーティション切る段階の問題で、MDとしてはv1.0かv1.2で構成してあるならMD部分でケアすることはない。 論理ブロックサイズが違うデバイスをミックスしたらどうなるのかは実験で苛めてみたら面白そう。どこかにうっかりバグとか入ってて踏めるかも?
758 : ややスレ違いになりますが、既存RAIDを構成しているAFTなはずのHDDも、dmesgなpartedからは 512B/セクタと認識されてますね。OSはCentOS5.8なんですが、カーネルが古いせい? なので、MDのメタデータもVer0.9で作られてます。1.0以上にしないとまずいんでしょうか…。 既存HDDは1HDD1パーティションで切っていて、64セクタ目を開始セクタにしてあるので、この点は問題ないかと思っているのですが。
759 : MD v0.9はうろ覚えだから省略したけど、これも末尾にメタデータ置いたと思うのでアライメント問題は起こさないはず。 AFTなのに512B/sectorと認識されるのは「なのに」じゃなくて正しい仕様。ただ、OSによってはAFTであることを検出して、書き込み手順を最適化するらしい。 まあアライメントがずれててもバッファリングありの書き込みだとたいして影響しない。 データベースとかでO_SYNC/O_DIRECTな書き込みばかりしてるなら気になるだろうけど。
760 : レイヤが違うと理解できれば心配することなんてないんだけどな。
761 : >>759 >まあアライメントがずれててもバッファリングありの書き込みだとたいして影響しない。 えーと、大量のシーケンシャル書き込みでも、両端の1セクタはパーシャルライトになります。 で、その部分では、普通であれば1/2回転である「平均回転待ち時間」が3倍になるわけです。 単純に計算して、5400rpmのHDDだと平均5.5msの回転待ちが 平均16.5msになり、一箇所の書き込み毎に平均11ms余分に待たされるわけですね。 (ただし、RAID環境だと元々が平均1/2周待ちではないので、確かに影響は少な目と言えるかも) まあ11msで読み書きできる量なんて、せいぜい1MBとか1.5MBとかその程度なので 毎回その程度の量を余分に書き込みしている程度の差でしかありませんが。 ちなみにRAID5だと、「パーシャル」になるサイズが (構成台数やチャンクサイズにもよりますが)かなり大きくなりますね。 OSがこのサイズを意識してバッファリングしてるかは知りませんが。 で、パーシャルでの書き込み時は、パリティ構成セットの全台の同期待ちがあるので そもそもの「回転待ち時間」が平均1/2周よりも平均1周に近くなり その上でもう1周かけて全台に書き込みを行うので 書き込みの回転待ちは単純に4倍近いと考えてよいかと思います。 RAID6はさらに倍ですね。(パリティセットの構成セクタが両パリティで大きく異なると思われるので) これが「RAID5の書き込みの遅さ」の正体なので 以前から時々みかける「昔はCPUパワーが云々」というのは的外れかと思います。
762 : なんとなく言ってることはわかるんだけど、 全部ライトキャッシュで吸収できるとしか思えないんだが そういうもんでもないの?
763 : ありがとうございます。 一応、追加する512BセクタのHDDの開始セクタも、既存4KBセクタのHDDに あわせて64セクタ目にして(意味ない?)、いま mdadm --growを始めました。 6TBから8TBにするのに丸3日かかるらしい…。
764 : うちにある3T x 2 のRAID1はresyncに10時間かかるなぁ。 HDDの大容量化にHDDの速度がついてきてないね。
765 : RAID5のgrowは何回もやってるので、うちの環境の場合(おおよそ) 6TB(1.5TB×5)→7.5TB(1.5TB×6) 1日半 7.5TB(1.5TB×6)→9TB(1.5TB×7) 2日弱 10TB(2TB×6)→12TB(2TB×7) 2日 12TB(3TB×5)→15TB(3TB×6) 2日 HDDはほとんどWDの緑。CPUはCeleron420。 マザーにSATAUとかついているが、SATA4P-PCIにHDD4台とか平気で繋げる。 NAS専用機なので他に仕事はやらせてない。 深く考えた事もないが、growのボトルネックって単純にHDDの書き込みか?
766 : mdadm --grow中に、なぜか既存のHDDがfailしてgrow動作が停止orz smartctlでチェックしても特にエラーは見つからないので、このHDDを再度アレイに突っ込みたいんだけど、大丈夫かな…。
767 : HDDの異常が無いなら、コントローラーの方は大丈夫なの? かなりの高負荷になっているはずだけど。
768 : HDDは全てオンボードのICH9Rに繋がってるんだが…。
769 : オンボードだろうがなんだろうが 壊れるときは壊れるw
770 : >>766 俺も昔raid5でそれやってヒヤッとしたわ データ死んだと思ったが運良く縮退運転でリスタートできた
771 : デグレード3T7400回転x3に3T5600回転足したところ、 リビルドに8時間ほどかかったな。 >>766-770 ビットマップでどの範囲まで書き換えたかの状態を持ってるはず。
772 : リビルドじゃなくリシンクだっけ。
773 : degradedではあるもののRAIDは生きてたので、エラーを起こしたHDDを remove後 --zero-superblock したあと再びaddしました。 そしたらresyncが走って(これは数時間程度で終了)stateはcleanになったけど、 mdadm --detail で Delta Devices : 1, (4->5) になったまま、当初数日間かかると 思われたリビルド動作は再開されず…。--grow /dev/md1 --size=max したら アレイのサイズは大きくなったけど、やっぱりリビルドは始まらず。 というわけでgrowが中途半端なままアレイ領域が拡張されて、stateは cleanというものすごく中途半端な状態になってしまいました。 --examine で各構成HDDをみると、Reshape pos'n というところに どこまでreshapeが完了したのかの記録は残ってるんですが…。 たびたびでホントすいません。アドバイスお願いします(泣
774 : うわ、なんかあちこちファイル壊れてるorz
775 : ご愁傷様
776 : エラー起こしたHDD戻したのか とりあえず今すぐ新しいHDD買って来てバックアップ
777 : RAIDばバックアップの代わりにならないとあれほど言ったのに (こころの中でな)
778 : 問題はエラー起こしたHDDを戻したことではなく、reshapeが終わってないうちに アレイのサイズを大きくしちゃったことのようです (大きくしたのはアレイだけで ファイルシステムはまだだったのに)。 いったんmdadm -Sで止めて、--assembleで再開させたら、reshapeが 続きから再開されました。アレイを大きくする前にはじめからこうしておけばよかったorz
779 : バックアップ用のストレージをRAIDで組むとええんや さらにそのストレージのスナップショットを地理的に離れたデータセンターにだな・・・
780 : どれがなにかさっぱりわからん。
781 : まぁバックアップは別のPCに取るべきだな。 本来なら遠隔地にバックアップPCを置くべきだが コストとネットワーク帯域的にむりぽ。
782 : AWSのアレ使えば日本じゃないところにバックアップを取るのも難しくはない 自分でRAID組むよりお手軽で安全ではあるが、帯域・転送量重量課金の問題は消せないな
783 : 質問なんですが、半端な容量のhdd複数をまとめてそれに対してRAID1をやりたいのですが、スパンとRAID1の両方に対応してる製品で可能でしょうか?
784 : 製品つか このスレで聞いたら mdraid でやればいいんでね? という話になると思うが 俺は半端な容量のヤツを全部捨てて 大きいのを二つ買ってきた方がいいと思う
785 : 専ブラの検索結果からきたのでlinux板とはつゆ知らず。失礼しました。
786 : Chunkサイズの最適値がいまいち判らん 参考になるサイトを教えて、エロい人
787 : 前試したことあるけどうちの環境だと128kがベストだったよ WD緑2TBの6台くらいのRAID5、ファイルシステムはext4で 試したチャンクサイズは64k/128k/256k/512k でかい動画ファイル数個と、細かいファイル多数を用意して それぞれ実際にコピーにかかる時間を計測した 具体的な数値は割愛するけど、 チャンクサイズが大きいとでかいファイルの書き込みがわずかに早くなったが それも誤差といっていいレベルで、代わりに読み込み速度が著しく低下した 結局一番バランスが良かったのが128k ただこのアレイの使途がsambaファイル鯖だったんで、 計測は実際の使用状況に近い状態(ネットワーク経由)で行ったため、 厳密なベンチとしてはやや不正確かもしれない まあ参考までに
788 : >>787 横からだが、こういう情報はありがたい。 うち WD 緑キャビア 2TB 4台の RAID5 だから環境近いなーと思って mdstat 確認してみたら……512k だった orz. 実害無いけど、今度組む時は気をつけようと思った。
789 : >> 787 3TBx7、RAID5、XFSでベンチ取ったけど複数回の平均でないせいか、いまいち安定しないんだよね dd if=/dev/zero of=/srv/32GB.img bs=1M count=32768 dd if=/srv/32GB.img of=/dev/null bs=1M count=32768 bonnie++ -d /srv -u root ■Chunk 4K 34359738368 バイト (34 GB) コピーされました、 48.4232 秒、 710 MB/秒 34359738368 バイト (34 GB) コピーされました、 58.3853 秒、 588 MB/秒 1.96,1.96,B75M,1,1359660716,31976M,,1645,92,673629,36,184346,23,3614,90,810132,68,381.1,13,16,,,,,1930,4,+++++,+++,2936,6,1493,3,+++++,+++,2077,4,4718us,39590us,211ms,16259us,100ms,191ms,36571us,103us,132us,151us,37us,4993ms ■Chunk 8K 34359738368 バイト (34 GB) コピーされました、 56.4166 秒、 609 MB/秒 34359738368 バイト (34 GB) コピーされました、 52.2211 秒、 658 MB/秒 1.96,1.96,B75M,1,1359662863,31976M,,1657,93,513626,27,187980,19,3518,88,912221,55,552.0,18,16,,,,,1852,4,+++++,+++,4805,10,3000,7,+++++,+++,4656,10,4637us,32371us,188ms,25171us,99881us,63085us,16483us,106us,164us,128us,76us,2915ms ■Chunk 16K 34359738368 バイト (34 GB) コピーされました、 57.9357 秒、 593 MB/秒 34359738368 バイト (34 GB) コピーされました、 48.7993 秒、 704 MB/秒 1.96,1.96,B75M,1,1359673482,31976M,,1657,94,485183,26,181746,16,3481,86,980625,46,533.1,17,16,,,,,3027,7,+++++,+++,9270,20,5068,11,+++++,+++,6055,14,5285us,35016us,180ms,44198us,100ms,116ms,16531us,124us,132us,221us,62us,1192ms
790 : ■Chunk 32K 34359738368 バイト (34 GB) コピーされました、 101.545 秒、 338 MB/秒 34359738368 バイト (34 GB) コピーされました、 76.322 秒、 450 MB/秒 1.96,1.96,B75M,1,1359674495,31976M,,313,35,300159,19,182774,14,5003,97,641331,21,1736,53,16,,,,,3856,3,+++++,+++,+++++,+++,+++++,+++,+++++,+++,+++++,+++,9372us,156ms,166ms,10635us,19026us,8914us,11857us,514us,1063us,378us,30us,1032us ■Chunk 64K 34359738368 バイト (34 GB) コピーされました、 69.354 秒、 495 MB/秒 34359738368 バイト (34 GB) コピーされました、 44.3628 秒、 775 MB/秒 1.96,1.96,B75M,1,1359671414,31976M,,1660,93,469444,25,195754,14,3153,78,920928,28,540.4,17,16,,,,,3581,8,+++++,+++,20406,44,12794,29,+++++,+++,18666,42,4734us,31388us,223ms,10643us,46512us,72471us,14313us,113us,131us,127us,74us,72us ■Chunk 128K 34359738368 バイト (34 GB) コピーされました、 102.281 秒、 336 MB/秒 34359738368 バイト (34 GB) コピーされました、 77.3459 秒、 444 MB/秒 1.96,1.96,B75M,1,1359670105,31976M,,353,40,301179,20,181007,14,4970,97,640319,21,1743,54,16,,,,,4025,4,+++++,+++,+++++,+++,+++++,+++,+++++,+++,+++++,+++,9350us,160ms,179ms,12648us,18613us,8668us,10107us,507us,1071us,378us,23us,1101us ■Chunk 256K 34359738368 バイト (34 GB) コピーされました、 76.2661 秒、 451 MB/秒 34359738368 バイト (34 GB) コピーされました、 44.8381 秒、 766 MB/秒 1.96,1.96,B75M,1,1359665523,31976M,,1645,92,348592,18,185896,13,3311,84,1020281,28,558.1,17,16,,,,,11249,25,+++++,+++,18695,41,12323,28,+++++,+++,17883,40,4635us,19945us,202ms,27348us,44991us,51579us,13328us,118us,129us,222us,27us,67us
791 : マシンのスペックは Celeron G550 RAM 16GB M/B Asrock B75M です。
792 : mdでraid1組んでて、縮退状態でgrowすることってできないんですかね? 500GB x 2でそれぞれ運用していたんだけど片方のディスクをOS以外で使ってない 状態だったので、データが入ってるディスクとRAID1を組みたかったのですが データ側のディスクは退避場所がないのでインストール時に8GBのUSBメモリと 500GBのHDDでRAID1を組んで、その後片肺にしてgrowで広げてデータをコピー、 そのあと元データ用ディスクとRAIDを組もうと思ったのですが。。。 片肺で領域を拡張しようと # mdadm --grow /dev/md1 -z max mdadm: component size of /dev/md1 unchanged at 7564288K とか言われて拡張してくれません。 どなたかヒントをいただければとおもいます。
793 : アレイ構築するときに最初から一つmissingにして500GB確保してみたら? やったことないからできるのかしらんけど
794 : 俺の名はジェフ。 人力RAID1を運用している。 ハードウェア障害でデータを失ったこと一度としてない。
795 : 俺の名はサンチェス。 人力RAID0の運用を試みたが、無意味だった。 わはははは。
796 : 俺の名はサンチェス。 気づかずにageていた。 わはははは。
797 : 面白いのか?
798 : 色々とテストしましたが、結局シーケンシャルは4Kが速かった
799 : Adaptecの HBA 71605H と RAID 71605E の違いは簡易RAIDの違いだけなのかな? http://www.adaptec.com/ja-jp/products/ Eのほうが機能面で優れてるのに、 なぜか市場では、Eのほうが安いんだけど。 なぜ?
800 : 自作PC板から出てくんな
801 : Adaptecの HBA 71605H と RAID 71605E の違いは簡易RAIDの違いだけなのかな? http://www.adaptec.com/ja-jp/products/ Eのほうが機能面で優れてるのに、 なぜか市場では、Eのほうが安いんだけど。 なぜ?
802 : >>801 Eのが先に販売開始で たしか38K位で販売開始 その後円安が一気にすすんでからHが発売 ドルベースではHの方が安いけど 円高時に輸入したものと円がさがったから輸入したHで 逆転しているだけかと Eも40K台に値上がりが始まったんで先月購入した俺は そう思ってる。
803 : >>802 EもHBAとして使用出来るよね? あと、Eはフラッシュモジュールコネクタが付いてるけどHには無い (フラッシュモジュールはRAID用だからHには付いてない) HよりEを買ったほうがましって事かな?
804 : mdadmのRAID1だけど、HDD交換って結構めんどいね。
805 : >>804 慣れたら、ハードウェアに依存せず同じやり方がどこでも通用するから楽だよ。 新しい環境でも、事前の復旧手順の確認とかテストがいらない。
806 : >>805 でもさ、取り外しと新規受け入れと、 自動コマンドの1つ2つに簡略化できることだと思うんだ。
807 : >>806 必要だと思ったら そういうスクリプトを書けば済むから そんなもの誰も作らないんだよ
808 : >>807 そのスクリプトを同梱してほしいってことだろう?
809 : MDで悩むのは故障したディスクに対応するスロットが一体どれなんだ、というあたりだな。間違ったの抜くとRるしな。
810 : HDDのよく見える位置にシリアル下4桁くらい書いたテープ貼ってる
811 : ラベルには必ず書いてあるだろうし、奥側(端子の反対側)にシールが張ってある機種も多いと思うんだけど 両方、取り付けちゃうと見えないんだよね。 書いてあって欲しいのは、端子側とその右側面端子寄りなのに。
812 : >>807 引数ドライブに対して -f して -r して -a だからな。 悩みようがない >>809-811 ほぼ全台ホットスワップベイに入れたので、 「とりあえず引き抜いてシリアルを見る」が 可能になった。
813 : >>812 おれは、ホットスワップに対応してても「とりあえず引きぬく」は無理だ。 挿し直したらいきなりリビルドが始まったりしたことがあるので、 正常なものは極力触りたくない。 あとは、 2台で RAID1 してるとか、RAID5とかの場合に1台壊れて交換する場合は、 その方法取れないしね。 1Uサーバとかの場合は、1スロット毎にLED があるので、dd して生きてるディスクを 確認してから引き抜けるけどタワーとかだと厳しいから、ラベリングするしかないか。 mdasm のコマンドに関しては、大いに賛成。 これ以上まとめる必要性を感じない。
814 : 個別のアクセスランプ付きのHDDケージを使っていると 異常がおきているHDDがどれかわかりやすくていいな。 常に判別できるというわけでは無いかもしれないけど 最近では、低速病に陥ったHDDがあることが アクセスランプの様子から判別できた。 一旦RAIDメンバーから外して、ddで管理情報抹消して 改めて、0xfdパーティションを作って戻した。 以降数ヶ月、低速病の再発は確認されていない。
815 : >>809 SATA の場合、/dev/sdX で指定すると割り当てがコロコロ変わっちゃうから ドライブは /dev/disk/by-path 以下のリンクで指定するのが俺的常識。 これだと接続インターフェイスでの指定だからリムーバブルフレームとか使ってても問題なし。
816 : by-uuid使ってるけど、いずれにしても事前マーキングしてないと抜くスロットで悩むのは同じ。OSから見えてる情報と物理的なスロット構成の対応が機材で違うからなー。
817 : smart情報でとれるhddのシリアルが、hddに貼られているものと一緒だからそれを見た方が確実だとおもわれ。
818 : そのシリアルがHDDはずさないと見えない配置になってることが多いからメモって見えるところに貼っておくって話でしょ
819 : SES2やGPIO対応のenclosure使えば良いんだろうけど、 高いしなぁ。
820 : スロット毎にLCDかなんかがついていて、表示内容を設定できればいいのに・・・ そして何十人月の苦心の後、ついに日本は全面電子ペーパのサーバを開発した。 一方ロシアは鉛筆(とラベルシール)を使った。
821 : 既出かもしれませんが教えて下さい ICH10RのRapidraidは usb接続のhddでraidを組むことが出来るかご存知の方いらっしゃいますか?
822 : 無理に決まってるだろw
823 : >>822 早速レスありがとうございます 諦めますw
824 : なんでそんな実用性無視のネタみたいなことをやろうとするのか知らんが、mdraidでやれ。 フロッピーディスクでもRAID組める。
825 : 確かDVD-RAMでRAID組んだ人がいた
826 : sda1とsdb1をmdraidでRAID1組んでて(/割り当て) それやめてsdaの方でもbの方でもいいから そのまま再インスコとか無しでシングルディスク環境に戻す手順てどっかにある?
827 : 縮退運転のまま使い続けりゃいいじゃん 今はメタデータがデバイス先頭だしめんどくせーよ
828 : >>826 片方をremoveしてからzero-superblockしてmkfsして/をコピー。
829 : それが妥当だけど GRUB2とかのインストールの手順を、おれは把握していない。 GRUBの頃は、何度かレスキューディスクからインストールしたんだけどね。 あと、Ubuntu系はパーティション(ボリューム)の指定に デバイス名やLABELでは無く、UUIDを使っていたりする。 UUIDはblkidコマンドで確認できるけど GRUB2を把握していないと、苦戦するね。 /etc/fstabの書き換えは面倒くさいだけだけど。
830 : >>828 結局は「通常のファイルシステムを作って丸コピー」しなきゃならんのですね 回答感謝です
831 : degrade状態で運用したほうが、あとで気が変わった時にディスク追加もしやすいのでお勧め。
832 : degradeで運用って、私がOS設計者だったらdegrade状態だと同期書き込み とか安全側に振る設計をすると思うな。パフォーマンスが落ちてないか 検証や、そういうコードが入ってないか調査した方が良いよ。
833 : ブロックデバイスレイヤーで非同期書き込みという阿保発想
834 : 得意先のためにDellからサーバを注文したんだけど、 Linuxでソフトraidを試そうとraid controllerを注文から外したのに Dellから電話掛かってきて、raid controllerを薦められた もちろん使うOSはLinuxだと聞いたうえで・・・ それでraid controller追加注文して、Centosを入れようとしてもHDDが認識されない! ググったらこの PERC S300 は Linux 非対応だって・・・なんてこと! しかもケーブルを繋ぎ直さないとLinuxでは決して使えないみたいで・・ サーバのフタって簡単に開けられるものなのか?PowerEdge R210II だけど
835 : なんかだらだら書いてあってよくわからんけど >>834 > サーバのフタって簡単に開けられるものなのか?PowerEdge R210II だけど 質問はここでいいのかな?
836 : ハードウェア保守マニュアルも無いサーバーなんかごめんだぜ
837 : >>834 S300だったか覚えてないが、Linuxで認識出来ないRAID カードを 買ってしまったと相談受けた事がある。さらにタチが悪い事にSAS だったのでオンボードSATAに挿せないというオチまでついてた。 その後どうなったか聞いてないが、結局、、自腹切ってRAIDカード 買ったんじゃないかなって感じだった。
838 : ワロタ そんなのdellにクレーム入れて 対応品に交換させればいいだけのこと。 うろたえる意味がわからん。
839 : 得意先の機材に関する疑問点を こーゆーとこで尋ねるってのは
840 : IntelマザーのFakeRAIDにて3TBをRAID1で使用したいのですがどうしても746GBに引っかかってしまいます OSに対応したドライバが無い場合は大人しくソフトウェアか対応してるハードウェアでやるしかないのでしょうか?
841 : 結局 >>834 は何がしたかったんだ。
842 : >>840 デバイスドライバを書くという手も無しにあらず。。。 一度LANカードで困った事があって、ソース追いかけたら 修正できた事があるよ。 とりあえずソースを読んでみたら。
843 : RAID Option ROMが腐ってんだから頑張るだけ無駄
844 : 標準カーネルで未対応なだけで、ベンダドライバは普通あるだよ。 標準カーネルに入っていないということの苦しさはたっぷり味わえるだろうけど、 サーバ系機材なら使えないということはまずありえない。
845 :2013/08/25 CentOS4.*の頃、ベンダードライバーで導入したけどyum updateで kernelの更新エラーが出るので、CentOS4のマイナーバージョン番号が 上がってもkernelが更新出来なくて、変なエラーがいっぱい出る状態で 運用してた事があったな。ベンダードライバも更新がなかなかなくて、 結局kernel標準のSoftware raidドライバに変更して再インスコしたな。
TOP カテ一覧 スレ一覧 2ch元 削除依頼 ▲
intel compiler for Linux part2 (724)
Linux上でのフォント総合スレ 5 (381)
今夜も Wine で乾杯! - 18本目 (658)
2002 LinuxWorldで重大発表!! (128)
@@前向きに、Linuxの改善点を語ろう 2 @@ (899)
Linux上でのフォント総合スレ 5 (381)
--log9.info------------------
串ってどうやって刺すんですか? (202)
ウイルスバスター等いれて効果あるの? (292)
ISDNからADSLに変更したいのですが (105)
IEとネットスケープナビの違い (125)
怪奇画像(怖い女)が一定感覚で現れる症状 (495)
初めての常時接続 (497)
WinMX3.3で初歩質問 (218)
win mxのこと教えてください (119)
〜 Q2回線使用料の支払いを拒否したい 〜 (102)
★神奈川1.5M・8M最速はダレよ?スレ★ (117)
FTPサーバーの作り方おせーて (148)
【お別れ】さようなら2ちゃんねる・閉鎖決定 (108)
田舎の母さんに画像を送りたいマジスレ (104)
スプリッタのなぞ (131)
WinMX? (223)
IPから接続地を割り出す方法って (158)
--log55.com------------------
吹替ファン集まれ〜!【PART166】
TOHOシネマズ Screen145
アカデミー賞 OSCAR 72
興行収入を見守るスレ3534
興行収入を見守るスレ3535
興行収入を見守るスレ3536
【ウィル・スミス主演】バッドボーイズ フォー・ライフ
【2020年公開】「尾崎豊を探して」