1read 100read
2011年10月1期LinuxRAID総合スレッド No.5 TOP カテ一覧 スレ一覧 削除依頼
・ 次のスレ
■OSカード■フラッシュメモリ■ディスク不要■
Windows互換Linux。
Linuxで動くオープンソースエロゲを作ろう!4
* という名前のファイルは作ってはいけない


RAID総合スレッド No.5


1 :09/09/16 〜 最終レス :11/12/09
Linuxでも標準でソフトウェアRAIDが可能となってきました。
マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう
スレ 1 http://pc5.2ch.net/test/read.cgi/linux/1013875908/
スレ 2 http://pc10.2ch.net/test/read.cgi/linux/1111348512/
スレ 3 http://pc11.2ch.net/test/read.cgi/linux/1168487758/
スレ 4 http://pc11.2ch.net/test/read.cgi/linux/1208263754/
Linux RAID 一般
ttp://linas.org/linux/raid.html
ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html
ttp://linas.org/linux/Software-RAID/Software-RAID.html
Adaptec Japan
ttp://www.adaptec.com/ja-JP/_common/os_support/linux/
Linux EVMS 一般
ttp://evms.sourceforge.net/
Adaptec Japanのアドレス修正。EVMSに関するIBMのサイトが404で見つからないので削除。
... あと続けてくらさい。

2 :
2隷奴

3 :
前スレ、どうなった?
1000行ってなかった気がするけど、落ちた?

4 :
>>3
984でDATE落ちしてて誰もたてる様子がなかったので建てました

5 :
>>3
981以上で一定期間書き込みがないと落ちる。

6 :
すみませんちょっと質問させてください。
stripe orderって論理的なslotナンバーみたいな認識で良いんでしょうか?
ググったんですが解説しているとこがなくて困ってます。
お願いします。

7 :
mdadmでRAID5のアレイにディスクを一本足そうとadd→growしたんだけど
うっかりパーティションを切り忘れてディスクデバイスそのものをaddしちゃったので
reshapeジョブをいったん止めたい。
しかしmdadmからあれこれ試したところ
何やっても「今やってるからちょっと待っとけ」みたいな表示。
でも素直に待ったら一日かかる。
諦めるしかないかなー?

8 :
バックアップも取らずにreshapeしたのなら諦めるしかないのでは?

9 :
質問です。
CentOS5.3のmdadmのRAID5で、Rebuild Statusが30%completeぐらいで0%に戻ります。
rebuildしている状態で、mountしようとすると、以下のような感じになります。
何か救済案はないでしょうか。
[root]# mount /data
mount: wrong fs type, bad option, bad superblock on /dev/md2,
missing codepage or other error
In some cases useful info is found in syslog - try
dmesg | tail or so
[root]# dmesg | tail
SCSI device sdk: 1953525168 512-byte hdwr sectors (1000205 MB)
sdk: Write Protect is off
sdk: Mode Sense: 00 3a 00 00
SCSI device sdk: drive cache: write back
md: syncing RAID array md2
md: minimum _guaranteed_ reconstruction speed: 1000 KB/sec/disc.
md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for reconstruction.
md: using 128k window, over a total of 976759936 blocks.
EXT3-fs error (device md2): ext3_check_descriptors: Block bitmap for group 3968 not in group (block 834142208)!
EXT3-fs: group descriptors corrupted!

10 :
>>8
いや、つまりムダな時間がかかるから止める方法ないかな?って話なんだけど
バックアップがあったらなんかいいことあったかね?
どうせ書き戻しやら何やらしなきゃならないからあまりメリットが思いつかないけど

11 :
>>7
sata/md/lvm/fs
なオレはパーティションなんぞ切らずにmdでRAID5 array組んでますよ

12 :
>>9
fs壊れてるよ、それ・・・

13 :
結局素直に時間で解決したw
>>11
俺も昔はそうしてたんだけど、
ある時、アレイの容量を増やそうと同容量のディスクを一本買ってきたら
元あったディスクと新規ディスクの総セクタ数がほんの少し違ってて
(つまり新ディスクの方が数セクタ少なくて)追加できず…ということがあった。
それ以来、総容量より僅かに小さいパーティションをきちんと切るようにしたよ。

14 :
ん?
mdならパーティションなんぞ切らなくても
使用容量が指定できたと思うが
それに既にあるアレイに追加するなら
どう転んでも既に使われてる他のドライブと
同じ容量しか使われない
時間がどーとか悩むだけ無駄

15 :
>>13
嫌過ぎるな > わずかに足りない
LVMで500GBx3をLVMでまとめて
1.5TBのディスクのアレイに参加させようとしたらわずかに足りない・・
良く見たらfree PEがまだまずかに残っていた。lvextendで0になるまでぶちこんだらなんとかなった

16 :
>>15
LVMでまとめたボリュームをRAIDに加えるって
なんでそんな危険なことを?
RAIDの意味を真っ向から否定するようなw

17 :
>>16
比較的最近1.5TBをメインのアレイに変えたので
これまでの500GBがいっぱい余っているため。貧乏性なので・・

18 :
>>13
--size または -z

19 :
>>17
「いっぱい余ってる」なら
LVMではなく
もう一個足してRAID5のボリュームにして
それをもう一段上のRAIDに参加させる
の方が正しいような気がする。
面倒くせーから
俺はやらんけどねw

20 :
>>19
正確には6個なので、それも考えたけど。
で、まあ
結局のところ止めました!w
リビルド開始までは確認したけど「遅ッ」
1.5TBなら 25MB/sくらいの速度なのだけど
LVMまぜたら 17MB/sくらいになって残り時間が「万分」という表示に
いや、それも正確にはLVMが悪いのかそれとも
今回初めてRAID6にしているため、RAID6はパリティ計算が小難しいから
遅いのかよくわかっていなかったりする

21 :
バーカ

22 :
http://pc12.2ch.net/test/read.cgi/software/1232865288/735
>>教えてください
>>質問なんですが外付けのHDDも暗号化できますか?
>>2テラのHDDを4台でハードウエアRAID 0構成したHDDを暗号化して使いたいのですが
>>問題有りませんか?

23 :
素直に1.5TBを購入し 500GBは500GBでアレイにした
RAID6って初めてだ。こんな感じ。やっとリビルド終わった記念。チラ裏スマソ。
$ cat /proc/mdstat
Personalities : [raid1] [raid5] [raid4] [raid6]
md2 : active raid6 sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1] sda1[0]
1953535744 blocks level 6, 64k chunk, algorithm 2 [6/6] [UUUUUU]
md1 : active raid6 sdm1[5] sdl1[4] sdk1[3] sdj1[2] sdi1[1] sdh1[0]
5860543744 blocks level 6, 64k chunk, algorithm 2 [6/6] [UUUUUU]

24 :
電源とSATAホットスワップベイとマルチプライヤーだけのRMな箱売ってないかなー

25 :
いろいろ調べてみたんだが、明確な内容がつかめないので質問します。(調べ方が足りなかったらすまん)
CentOSにて
/boot RAID1
swap
/ RAID1+0
として、InstallしたいのだがInstallerには、RAID0, 1, 5, 6 しかないのでInstallerから組むことはできないと思うが
Install後に何か手を加えてRAID10でパーティション構築して、/ として使用する方法はない?

26 :
FedoraだったらインストーラでRAID10できるんだけどなー

27 :
>>25
インストール中にコマンド打って、あらかじめ好きなようにmdを作っておいて、
そこにインストールする、という手順じゃダメ?

28 :
>>25
一旦USBメモリとかにインストールして、カーネルを入れ替えてから、好きなような構成に設定したHDDにまるごとrsyncでコピる。

29 :
>>24
裸族の雑居ビルじゃだめなんか

30 :
ざぞくのらっきょビル

31 :
システム:md0(sda1 + sdb1のraid1) + データ:md1(sda3 + sdb3のraid1)
という構成でシステムを再インストールしたいのですがどうすればいいのでしょう?
  1.sdb1をfail&removeしてmd0から除く
  2.sdb1に新システムをインストール
  3.sdb1から起動し、元のmd0(sda1のみ)にシステムをコピー&grub設定
  4.sda1から起動し、sdbをadd
と思ったのですが…1の時点でコケました。
1の直後に再起動したらmd0=sdb1のみと認識されて起動したり(sda1どこ行った?sdbはremoveしたろ?)、
物理的にsdbのみ or sdaのみで起動できたり(removeしているからどっちかコケるのでは?)、
と、ワケワカランとなってしまいました。
# そもそもmd0のシステムを入れ替えてmd1って動くのでしょうか?

32 :
> 1の直後に再起動したらmd0=sdb1のみと認識されて起動したり(sda1どこ行った?sdbはremoveしたろ?)、
> 物理的にsdbのみ or sdaのみで起動できたり(removeしているからどっちかコケるのでは?)、
BIOSでの起動ドライブの指定は意図した通りに設定してあんの?
至極まっとうな動作だと思うが
1枚だけで起動できなきゃなんの為のRAID1なんだ

33 :
何をしたいのかさっぱりわからん。

34 :
BIOSのHDD起動順序

35 :
つか
RAIDのレベルで二つに割ってる意味がサッパリ分からん。
ボリューム分けたいなら普通はLVMでやるもんだと思うが。
パフォーマンスが落ちるだけじゃねーの?

36 :
LVM挟んだほうが明らかにオーバーヘッドが一枚多いだろw

37 :
明らか
か?

38 :
実効"ほぼ"ゼロってのは叩きやすいからね
定量的に考えられない奴が引っかかるから扇動しやすい

39 :
パフォーマンスはともかく
ディスク故障->交換時にかかる手間暇に関しては
LVMで分けた方がずっと楽だな。

40 :
LinuxMDでHDD4本でRAID1を2本ずつかけてるんだが、
複数のmdデバイスを同時にresyncかけるのはできるのかな?
OSインストール時に二個同時に走ってるのを/proc/mdstatで見たんだけど、
再起動すると一個ずつになってる、、
同時でやれば速く終わるはずなんだけど

41 :
>>40
> 同時でやれば速く終わるはずなんだけど
むしろ遅くなりそうな気がするが。
同一のCPU、同一のコントローラで
二つの処理を同時に行わせるんだよな?

42 :
>>41
そうなんだけども、CentOSインスコ時の裏ターミナルで見たら二本のRAIDペアが同時でMAX近いスピードが出てるんだよ。
resync終了前に再起動すると起動してからresyncが走るけど一本ずつresyncに。
同時並行でresyncできるかmd.txt見てもそんなパラメータないし謎、、

43 :
ボリュームの初期化と
データが入ってるボリュームのresyncでは
話が全く違うように思える

44 :
>>43
もち、買ってきたばっかのブランクHDDです

45 :
単にrcスクリプトの問題じゃねえの

46 :
ひょっとしたらmdadmで作成した時だけは同時に走るのかもしれない…
で再起動してからは同期が終ってないから普通に順番に走ると。
客先とかで組むと最後まで完了しないと帰れないのでって事情ですw

47 :
そういう事情なら
前の日のうちにresync済ませておいたHDDを持ち込めば
再認識させるだけで即座に帰れるぞw

48 :
LVMもRAIDに加えられるようなのでちょっと悩み中
今、自宅ファイルサーバの構成が
500GB 2個
1TB 2個
1.5TB 1個
という構成
OSは80GBのHDDに入れている
容量が足りなくなったついでにRAID5を組もうと思い、
1.5TB 2個を追加しようと思っている
ここで、A案かB案か迷っている
A案 500GB+1TBで1.5TBのLVMを組んで 1.5TB 5個でRAID5を組む
B案 1.5TBをfdiskで500GBと1TBのパーティションで切って
500GB 5個と1TB 5個でそれぞれRAID5を組む
今後のディスク追加は1.5TB以上だと思うのでA案を考えているけど、
A案だと再構成に何日もかかるのかな?

49 :
どちらかといえばB案かな。大容量での再構成はできれば避けたい。
ただ、両方のボリュームへの同時アクセスでヘッドの取り合いになりそうではある。
このあたりはアクセスパターン次第かと。
もしAなら、LVMにしなくてもlinear arrayでつなげばいい気がしないでもない。
mdXもRAIDに参加できる
で、冗長性を保った状態で容量拡張をしたいならRAID1+LVMが一番楽。
大きい容量の新しいアレイを参加させて終わり。ポートが足りなくなったら
一番小さいアレイからデータ掃き出して外す。
うちはこれで、1発250GBの時代から新陳代謝させて
今 1TB RAID1 x 3 + 500GB RAID1 x2 になってる。
このあたりは容量効率をとるかメンテナンス性を取るかの判断かな

50 :
3台のRAID5(md0)を4台構成に変更しようと思い、下のコマンドを実行していくと失敗する。
# mdadm /dev/md0 -a /dev/sdd1
mdadm: hot added /dev/sdd1
# mdadm -G /dev/md0 -n 4
mdadm: Cannot set device size/shape for /dev/md0: Invalid argument
ちなみに、md0はLVMに組み込まれています。
今までこのようなことをが起きた事はなかったのですが、どなたかご存知の方、教えていただけませんか?

51 :
>>49
> 大きい容量の新しいアレイを参加させて終わり。ポートが足りなくなったら
> 一番小さいアレイからデータ掃き出して外す。
参考までに教えて欲しいのだが、この掃き出しというのはpvmoveで
大きいアレイにデータを寄せて、resize2fsでfsを縮小、
vgreduceでLVをVGから外す、という流れでおk?

52 :
>>51
減らすときはfs-LV-VG-PVっていうレイヤの上から、増やすときはその逆。
なので手順はresizefs→lvreduce→vgreduce→pvremoveだし、
増やすときはpvcreate→vgextend→lvextend→resizefs

53 :
途中で送信してしまった。
(通常の構成なら)RAID(md)層はPVのさらに下に来る。
あとはLVMスレで頼む

54 :
>>52
lvreduceすると自動的にpvmoveされるっけ?

55 :
Linuxのmdで、ローカルにATAやSCSIのディスクがつながっていて
なんらかの冗長化をしたい、というシチュエーションに限定した話で
いいんですけども、
・ディスク全体でmdを構成して、md上にパーティションをつくる
・パーティション分けてから、パーティションごとにmdをつくる
利点欠点について説明する場面があるんだけど、何を言えばいいだろう。
その気になれば後でどうにでもなるからどっちでもいいや、
とつい思ってしまうんだけど……
話す相手は「コンピュータには慣れているけど(学問的な意味で)
サーバメンテ的なことには詳しくない人」です。

56 :
つまり、お前もよく理解していないってこった。

57 :
LVMスレへの誘導をもろともしないバカなんだし、許してやれよ…

58 :
>>50
> ちなみに、md0はLVMに組み込まれています。
答えが書いてあるんじゃないかって気がする。

59 :
>>57
誤:もろともしない
正:ものともしない

60 :
>>52>>51への返答になってないことにも気づかず偉そうだな…… > /dev/null

61 :
ねぇ、LVMで足らない分をポチポチ足していったら
JBODみたいに1つでも壊れたらまずいHDDアレイにならない?

62 :
>>48ですが、A案で構成中に問題が
>>49さんを参考に500GB+1TBをlinear arrayでつないでみたのですが、
OS再起動するとRAID構成から外れてしまう
# mdadm --create /dev/md1 --level linear --raid-devices 2 /dev/sdf1 /dev/sdg1
# mdadm /dev/md0 --add /dev/md1
# mdadm --grow /dev/md0 -n 5
これで一旦はmd0に組み込まれるんだが、OS再起動すると/dev/md1が外れる
恐らくOS起動時、/dev/md0を構成するときに/dev/md1が構成されていないからだと思うんだが
/dev/md0を/dev/md9としてもダメだった
今度lvmからmd0への組みこみを試してみようと考えているが、
linear arrayでできる方法はないのだろうか?

63 :
initrd作り直したか?

64 :
ubuntu9.10からのpalimpsestディスクユーティリティつかったソフトウェアRAIDやってる人はいるかい?

65 :
まぁFedora11から入ってるから、いるんじゃね?

66 :
いやー自動マウントの設定がうまくいかなくてさー

67 :
そこそこIOPSの高い数TBのストレージを作りたいんですが、
基本的にはディスク本数を増やすアプローチで良いのでしょうか?

68 :
数TB程度ならSSD並べるだけでいいだろ

69 :
swapを冗長化するという話はほとんど聞きませんが、
swap域でディスクエラーが起きたらどうなるのでしょうか?
プロセスが突然死するのでしょうか?
暴走することもあるのでしょうか?
一般には、swapを冗長化するデメリットが
プロセスが突然死したりするかもしれない心配より
大きいと考えられているのでしょうか?

70 :
別の質問です。
sdaとsdbでraid1を組んだとき、
sdaがあるビットは1だと言い、sdbはそのビットは0だと言ったら
何が起こるのでしょうか?

71 :
>>70
これは間抜けな質問だったかもしれません。raid5などと混同していました。
無視してくださって結構です。

72 :
>>69
前半 YES。ただそれが問題になる場合は、スワップをしないように最大まで
メモリを載せる。スワップしたら負け。

73 :
>>72
早っ。
今までスワップは、とにかくするもんだと思っていましたが、吹っ切れました。

74 :
>>69
実際にやってみた。
物理メモリにマッピングされているページを、わざとスワップアウトさせた状態で:
sudo /bin/sh -c 'cat /dev/zero >/dev/<swap>'
ええ、フリーズしました。
どうしたらよいでしょうか?電源ボタン長押しでいいですか?

75 :
物理メモリの延長と考えればメモリの破損だからなあ
そりゃ止まるよね

76 :
でもさ、ユーザ空間のプロセスなんてカーネルに管理されているんだから
強制的に終了させられることは珍しくないじゃん?
だからさーそういう例外を予測して、完全には無理だろうけど、
フェイルセーフな方向に失敗させるのがプログラマの仕事じゃないかな?

77 :
OSとアプリの責任分界をまるっきり無視だなw

78 :
初心者なのでこのスレには不似合かもしれないんですけど
緊急事態なので教えてください
REID0を組んでるのですがマザーがってしまったらしく
BIOSまで行き着かず電源が落ちてしまいます
なんとかHDのデータだけでも救出したいのですが
ほかのマザーでもREIDのHDは認識しますか?
可能でしたらその手順も教えていただけたら...
お願いいたします

79 :
ソフトRAIDなのかハードRAIDなのか。
ハードなら同じハードを揃える。
ソフトなら移し変えるだけ可じゃね?
もうちょっと環境詳しく。

80 :
>79
ありがとうございます
DELL DIMENTION 9100のBTOのメーカー設定のソフトウェアREIDです
自分としては他のマザーで大丈夫なら
今時のマザーとCPUを購入して他のパーツを流用できれば理想なのですが
同じマザーでなければ無理なようでしたら
ヤフオクで純正のマザーを落とそうかと思ってます

81 :
WindowsXPモデルしか無いみたいだけどここはLinux板だよ。

82 :
REID て。

83 :
ローマ字入力してる人に多いタイプミスだから気にしない…
(わたしは親指シフトだから…笑)

84 :
タイプミスだろうが何だろうが繰り返してる上に直す気がない時点でダメ認定済みなわけだが

85 :
RAID0でデータを救出って時点で頭おかしいね
RAID0はなくなってもいいデータを入れるものだろうに

86 :
>RAID0でデータを救出って時点で頭おかしいね
ディスクがかれたってことじゃないみたいだし、
そこは別にいいだろ。

87 :
質問です
元々
本体:eSATAカード増設
外部ストレージ:PMP対応のeSATA接続の箱にHDD2本(sdc, sdd)でRAID0
OS:fedora 11
の構成のサーバにfedora12をクリーンインストールしました。
インストール後、sdc、sddとも見えてて、sdc1、sdd1の各パーティションも0xfdで見えてますが、
RAID0の状態では見えていない状況です
この状態でRAIDの組みなおしは可能でしょうか?

88 :
意味不明

89 :
たぶん,
sdaにFedora11入れてて,sdc,sdcをSoftRAIDしてたのが,
sdaをFedora12にしてSoftRAID設定が消えちゃったって
言ってるみたいだね〜
Fedoraに強い人!助けて〜(笑

90 :
>>87
まず確認してほしいけど、起動後に、
mdadm -A /dev/md0 /dev/sdc1 /dev/sdd1
とすると、RAID0のアレイは動くんだよね?
それで動かないようなら、dmraidが悪さをしている可能性がある
dmraid -r
としてみて、/dev/sdcや/dev/sddが出てくるようならそれに該当する

91 :
ソフトウェアRAIDで、dmraid って、ググっても古い記事しか見つからないんだけど、今でも再構築周りの不安定さってあるんでしょうか。確実に再構築できることを求めるなら、やっぱり md で組むべき?

92 :
>>91
逆にdmraidを使いたい理由を教えてほしいんだけど
Windowsとかとアレイを共用してるとか?
それとも最近のマザーにはparity計算するハードとか載ってるのかな?
枯れてるという意味でも、柔軟性でもmdの方がいいと思うけどな
たとえば、マザーが壊れたとかした場合、dmraidだと移行が面倒
mdだとそんな制限ないし、スーパーブロックの構造もわかってるので、壊れても
なんとか修復できたりする

93 :
>>90
返信ありがとうございます。
fdiskではsdc1、sdd1とも0xfdで見えていたのでデバイスファイルもあるものだと思い込んでいましたが
/devを見たところsdc1、sdd1ともない状況でした
現在はcat /proc/devicesを見たところ、sdのメジャー番号が8でしたので、mknod b 8 XX /dev/sdc1
とやってみたところinvalid major number '8' とでてきて詰まってる状況です
ちなみにmdadm -A /dev/md5 /dev/sdc /dev/sddを実行した結果を貼り付けて見ます
[root@sv1 ~]# cat /proc/mdstat
Personalities : [raid1]
md5 : inactive sdc[1](S) sdd[0](S)
4514 blocks super external:imsm

94 :
>>93
>fdiskではsdc1、sdd1とも0xfdで見えていたのでデバイスファイルもあるものだと思い込んでいましたが
>/devを見たところsdc1、sdd1ともない状況でした
あり得ない。じゃあ、fdiskは何のファイルをオープンしてるんだよって話だ
実際そうなんだというなら、
strace fdisk /dev/sdc
の結果を張ってみてくれ
>現在はcat /proc/devicesを見たところ、sdのメジャー番号が8でしたので、mknod b 8 XX /dev/sdc1
>とやってみたところinvalid major number '8' とでてきて詰まってる状況です
その「XX」が合ってるかどうか気になるな
デバイスファイル作るなら /dev で
./MAKEDEV sdc
としてみたら?(余計なファイルもいっぱいできるけど)
まぁ、いずれにしても通常はudevが作るわけだし、mknodできないとすれば別の理由か
mount
の結果と
dmesg
の結果でも張ってみてくれよ(dmesgは長いからsdc、sddの認識部分だけでいいや)

95 :
>>94
自己レス
ちょっと勘違いしてた
状況を整理すると、/dev/sdcと/dev/sddは存在しているわけだな。んで、/dev/sdc1と/dev/sdd1がないと
パーティションテーブルが壊れているのか、非互換なのか…という感じですか
とりあえず
fdisk -l /dev/sdc
fdisk -l /dev/sdd
の結果と、dmesgのsdcとsddの認識部分のログが見たいですな

96 :
>>95
度々すみません
# fdisk -l /dev/sd[c,d]
ディスク /dev/sdc: 500.1 GB, 500106780160 バイト
ヘッド 255, セクタ 63, シリンダ 60801
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
Disk identifier: 0x00072abe
デバイス ブート 始点 終点 ブロック Id システム
/dev/sdc1 1 60801 488384001 fd Linux raid 自動検出
ディスク /dev/sdd: 500.1 GB, 500107862016 バイト
ヘッド 255, セクタ 63, シリンダ 60801
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
Disk identifier: 0x00095176
デバイス ブート 始点 終点 ブロック Id システム
/dev/sdd1 1 60801 488384001 fd Linux raid 自動検出
(続く)

97 :
(続き)
# dmesg | grep sd[c,d]
sd 6:0:0:0: [sdc] 976771055 512-byte logical blocks: (500 GB/465 GiB)
sd 6:0:0:0: [sdc] Write Protect is off
sd 6:0:0:0: [sdc] Mode Sense: 00 3a 00 00
sd 6:0:0:0: [sdc] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sdc:
sd 6:1:0:0: [sdd] 976773168 512-byte logical blocks: (500 GB/465 GiB)
sd 6:1:0:0: [sdd] Write Protect is off
sd 6:1:0:0: [sdd] Mode Sense: 00 3a 00 00
sd 6:1:0:0: [sdd] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sdd: sdc1
sd 6:0:0:0: [sdc] Attached SCSI disk
sdd1
sd 6:1:0:0: [sdd] Attached SCSI disk
>その「XX」が合ってるかどうか気になるな
# ll /dev/sdc
brw-rw---- 1 root disk 8, 32 2010-02-13 15:31 /dev/sdc
となっていましたのでマイナー番号は33を指定してました

98 :
>>96
>>97
fdiskの結果もおかしくないし、デバイス認識にも問題ない
mknodのマイナー番号指定もおかしくない(33であってる)
だけど、/dev/sdc1の作成には失敗するし、そもそもudevでの自動認識もできないわけですか
どうにも謎ですな
PMPに接続しているHDDをマザー上のSATAポートに接続しなおしてテストしてみるというのはどうでしょう
ある程度問題の切り分けが可能かも。または、別のHDDを接続して、区画設定からやり直すとか
SELinuxが何かしてる?
restorecon -R /dev
してみるとか(これで解決するとも思えんが…)

99 :
>>92
いえ。dmraid の方が高速だって記事を見かけたことがあるもので(ソースは失念しました)、安定してるなら入れてみようと思っただけなんです。

100read 1read
1read 100read
TOP カテ一覧 スレ一覧 削除依頼
・ 次のスレ
■OSカード■フラッシュメモリ■ディスク不要■
Windows互換Linux。
Linuxで動くオープンソースエロゲを作ろう!4
* という名前のファイルは作ってはいけない