1read 100read
2013年02月Linux22: RAID総合スレッド No.5 (797)
TOP カテ一覧 スレ一覧 2ch元 削除依頼 ▼
Vine Linux Thread 其の64 (290)
[人気]Fedora vs Ubuntu[爆発] (253)
Windows 8の「Secure Boot」を批判するLinux陣営 (293)
LFS(Linux From Scratch) 統合スレ 2 (843)
ぱぱんだ Part2 (246)
SATELLA1・サテラ1改造版 11台目 (885)
RAID総合スレッド No.5
1 :2009/09/16 〜 最終レス :2013/02/10 Linuxでも標準でソフトウェアRAIDが可能となってきました。 マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう スレ 1 http://pc5.2ch.net/test/read.cgi/linux/1013875908/ スレ 2 http://pc10.2ch.net/test/read.cgi/linux/1111348512/ スレ 3 http://pc11.2ch.net/test/read.cgi/linux/1168487758/ スレ 4 http://pc11.2ch.net/test/read.cgi/linux/1208263754/ Linux RAID 一般 ttp://linas.org/linux/raid.html ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html ttp://linas.org/linux/Software-RAID/Software-RAID.html Adaptec Japan ttp://www.adaptec.com/ja-JP/_common/os_support/linux/ Linux EVMS 一般 ttp://evms.sourceforge.net/ Adaptec Japanのアドレス修正。EVMSに関するIBMのサイトが404で見つからないので削除。 ... あと続けてくらさい。
2 : 2隷奴
3 : 前スレ、どうなった? 1000行ってなかった気がするけど、落ちた?
4 : >>3 984でDATE落ちしてて誰もたてる様子がなかったので建てました
5 : >>3 981以上で一定期間書き込みがないと落ちる。
6 : すみませんちょっと質問させてください。 stripe orderって論理的なslotナンバーみたいな認識で良いんでしょうか? ググったんですが解説しているとこがなくて困ってます。 お願いします。
7 : mdadmでRAID5のアレイにディスクを一本足そうとadd→growしたんだけど うっかりパーティションを切り忘れてディスクデバイスそのものをaddしちゃったので reshapeジョブをいったん止めたい。 しかしmdadmからあれこれ試したところ 何やっても「今やってるからちょっと待っとけ」みたいな表示。 でも素直に待ったら一日かかる。 諦めるしかないかなー?
8 : バックアップも取らずにreshapeしたのなら諦めるしかないのでは?
9 : 質問です。 CentOS5.3のmdadmのRAID5で、Rebuild Statusが30%completeぐらいで0%に戻ります。 rebuildしている状態で、mountしようとすると、以下のような感じになります。 何か救済案はないでしょうか。 [root]# mount /data mount: wrong fs type, bad option, bad superblock on /dev/md2, missing codepage or other error In some cases useful info is found in syslog - try dmesg | tail or so [root]# dmesg | tail SCSI device sdk: 1953525168 512-byte hdwr sectors (1000205 MB) sdk: Write Protect is off sdk: Mode Sense: 00 3a 00 00 SCSI device sdk: drive cache: write back md: syncing RAID array md2 md: minimum _guaranteed_ reconstruction speed: 1000 KB/sec/disc. md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for reconstruction. md: using 128k window, over a total of 976759936 blocks. EXT3-fs error (device md2): ext3_check_descriptors: Block bitmap for group 3968 not in group (block 834142208)! EXT3-fs: group descriptors corrupted!
10 : >>8 いや、つまりムダな時間がかかるから止める方法ないかな?って話なんだけど バックアップがあったらなんかいいことあったかね? どうせ書き戻しやら何やらしなきゃならないからあまりメリットが思いつかないけど
11 : >>7 sata/md/lvm/fs なオレはパーティションなんぞ切らずにmdでRAID5 array組んでますよ
12 : >>9 fs壊れてるよ、それ・・・
13 : 結局素直に時間で解決したw >>11 俺も昔はそうしてたんだけど、 ある時、アレイの容量を増やそうと同容量のディスクを一本買ってきたら 元あったディスクと新規ディスクの総セクタ数がほんの少し違ってて (つまり新ディスクの方が数セクタ少なくて)追加できず…ということがあった。 それ以来、総容量より僅かに小さいパーティションをきちんと切るようにしたよ。
14 : ん? mdならパーティションなんぞ切らなくても 使用容量が指定できたと思うが それに既にあるアレイに追加するなら どう転んでも既に使われてる他のドライブと 同じ容量しか使われない 時間がどーとか悩むだけ無駄
15 : >>13 嫌過ぎるな > わずかに足りない LVMで500GBx3をLVMでまとめて 1.5TBのディスクのアレイに参加させようとしたらわずかに足りない・・ 良く見たらfree PEがまだまずかに残っていた。lvextendで0になるまでぶちこんだらなんとかなった
16 : >>15 LVMでまとめたボリュームをRAIDに加えるって なんでそんな危険なことを? RAIDの意味を真っ向から否定するようなw
17 : >>16 比較的最近1.5TBをメインのアレイに変えたので これまでの500GBがいっぱい余っているため。貧乏性なので・・
18 : >>13 --size または -z
19 : >>17 「いっぱい余ってる」なら LVMではなく もう一個足してRAID5のボリュームにして それをもう一段上のRAIDに参加させる の方が正しいような気がする。 面倒くせーから 俺はやらんけどねw
20 : >>19 正確には6個なので、それも考えたけど。 で、まあ 結局のところ止めました!w リビルド開始までは確認したけど「遅ッ」 1.5TBなら 25MB/sくらいの速度なのだけど LVMまぜたら 17MB/sくらいになって残り時間が「万分」という表示に いや、それも正確にはLVMが悪いのかそれとも 今回初めてRAID6にしているため、RAID6はパリティ計算が小難しいから 遅いのかよくわかっていなかったりする
21 : バーカ
22 : http://pc12.2ch.net/test/read.cgi/software/1232865288/735 >>教えてください >>質問なんですが外付けのHDDも暗号化できますか? >>2 テラのHDDを4台でハードウエアRAID 0構成したHDDを暗号化して使いたいのですが >>問題有りませんか?
23 : 素直に1.5TBを購入し 500GBは500GBでアレイにした RAID6って初めてだ。こんな感じ。やっとリビルド終わった記念。チラ裏スマソ。 $ cat /proc/mdstat Personalities : [raid1] [raid5] [raid4] [raid6] md2 : active raid6 sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1] sda1[0] 1953535744 blocks level 6, 64k chunk, algorithm 2 [6/6] [UUUUUU] md1 : active raid6 sdm1[5] sdl1[4] sdk1[3] sdj1[2] sdi1[1] sdh1[0] 5860543744 blocks level 6, 64k chunk, algorithm 2 [6/6] [UUUUUU]
24 : 電源とSATAホットスワップベイとマルチプライヤーだけのRMな箱売ってないかなー
25 : いろいろ調べてみたんだが、明確な内容がつかめないので質問します。(調べ方が足りなかったらすまん) CentOSにて /boot RAID1 swap / RAID1+0 として、InstallしたいのだがInstallerには、RAID0, 1, 5, 6 しかないのでInstallerから組むことはできないと思うが Install後に何か手を加えてRAID10でパーティション構築して、/ として使用する方法はない?
26 : FedoraだったらインストーラでRAID10できるんだけどなー
27 : >>25 インストール中にコマンド打って、あらかじめ好きなようにmdを作っておいて、 そこにインストールする、という手順じゃダメ?
28 : >>25 一旦USBメモリとかにインストールして、カーネルを入れ替えてから、好きなような構成に設定したHDDにまるごとrsyncでコピる。
29 : >>24 裸族の雑居ビルじゃだめなんか
30 : ざぞくのらっきょビル
31 : システム:md0(sda1 + sdb1のraid1) + データ:md1(sda3 + sdb3のraid1) という構成でシステムを再インストールしたいのですがどうすればいいのでしょう? 1.sdb1をfail&removeしてmd0から除く 2.sdb1に新システムをインストール 3.sdb1から起動し、元のmd0(sda1のみ)にシステムをコピー&grub設定 4.sda1から起動し、sdbをadd と思ったのですが…1の時点でコケました。 1の直後に再起動したらmd0=sdb1のみと認識されて起動したり(sda1どこ行った?sdbはremoveしたろ?)、 物理的にsdbのみ or sdaのみで起動できたり(removeしているからどっちかコケるのでは?)、 と、ワケワカランとなってしまいました。 # そもそもmd0のシステムを入れ替えてmd1って動くのでしょうか?
32 : > 1の直後に再起動したらmd0=sdb1のみと認識されて起動したり(sda1どこ行った?sdbはremoveしたろ?)、 > 物理的にsdbのみ or sdaのみで起動できたり(removeしているからどっちかコケるのでは?)、 BIOSでの起動ドライブの指定は意図した通りに設定してあんの? 至極まっとうな動作だと思うが 1枚だけで起動できなきゃなんの為のRAID1なんだ
33 : 何をしたいのかさっぱりわからん。
34 : BIOSのHDD起動順序
35 : つか RAIDのレベルで二つに割ってる意味がサッパリ分からん。 ボリューム分けたいなら普通はLVMでやるもんだと思うが。 パフォーマンスが落ちるだけじゃねーの?
36 : LVM挟んだほうが明らかにオーバーヘッドが一枚多いだろw
37 : 明らか か?
38 : 実効"ほぼ"ゼロってのは叩きやすいからね 定量的に考えられない奴が引っかかるから扇動しやすい
39 : パフォーマンスはともかく ディスク故障->交換時にかかる手間暇に関しては LVMで分けた方がずっと楽だな。
40 : LinuxMDでHDD4本でRAID1を2本ずつかけてるんだが、 複数のmdデバイスを同時にresyncかけるのはできるのかな? OSインストール時に二個同時に走ってるのを/proc/mdstatで見たんだけど、 再起動すると一個ずつになってる、、 同時でやれば速く終わるはずなんだけど
41 : >>40 > 同時でやれば速く終わるはずなんだけど むしろ遅くなりそうな気がするが。 同一のCPU、同一のコントローラで 二つの処理を同時に行わせるんだよな?
42 : >>41 そうなんだけども、CentOSインスコ時の裏ターミナルで見たら二本のRAIDペアが同時でMAX近いスピードが出てるんだよ。 resync終了前に再起動すると起動してからresyncが走るけど一本ずつresyncに。 同時並行でresyncできるかmd.txt見てもそんなパラメータないし謎、、
43 : ボリュームの初期化と データが入ってるボリュームのresyncでは 話が全く違うように思える
44 : >>43 もち、買ってきたばっかのブランクHDDです
45 : 単にrcスクリプトの問題じゃねえの
46 : ひょっとしたらmdadmで作成した時だけは同時に走るのかもしれない… で再起動してからは同期が終ってないから普通に順番に走ると。 客先とかで組むと最後まで完了しないと帰れないのでって事情ですw
47 : そういう事情なら 前の日のうちにresync済ませておいたHDDを持ち込めば 再認識させるだけで即座に帰れるぞw
48 : LVMもRAIDに加えられるようなのでちょっと悩み中 今、自宅ファイルサーバの構成が 500GB 2個 1TB 2個 1.5TB 1個 という構成 OSは80GBのHDDに入れている 容量が足りなくなったついでにRAID5を組もうと思い、 1.5TB 2個を追加しようと思っている ここで、A案かB案か迷っている A案 500GB+1TBで1.5TBのLVMを組んで 1.5TB 5個でRAID5を組む B案 1.5TBをfdiskで500GBと1TBのパーティションで切って 500GB 5個と1TB 5個でそれぞれRAID5を組む 今後のディスク追加は1.5TB以上だと思うのでA案を考えているけど、 A案だと再構成に何日もかかるのかな?
49 : どちらかといえばB案かな。大容量での再構成はできれば避けたい。 ただ、両方のボリュームへの同時アクセスでヘッドの取り合いになりそうではある。 このあたりはアクセスパターン次第かと。 もしAなら、LVMにしなくてもlinear arrayでつなげばいい気がしないでもない。 mdXもRAIDに参加できる で、冗長性を保った状態で容量拡張をしたいならRAID1+LVMが一番楽。 大きい容量の新しいアレイを参加させて終わり。ポートが足りなくなったら 一番小さいアレイからデータ掃き出して外す。 うちはこれで、1発250GBの時代から新陳代謝させて 今 1TB RAID1 x 3 + 500GB RAID1 x2 になってる。 このあたりは容量効率をとるかメンテナンス性を取るかの判断かな
50 : 3台のRAID5(md0)を4台構成に変更しようと思い、下のコマンドを実行していくと失敗する。 # mdadm /dev/md0 -a /dev/sdd1 mdadm: hot added /dev/sdd1 # mdadm -G /dev/md0 -n 4 mdadm: Cannot set device size/shape for /dev/md0: Invalid argument ちなみに、md0はLVMに組み込まれています。 今までこのようなことをが起きた事はなかったのですが、どなたかご存知の方、教えていただけませんか?
51 : >>49 > 大きい容量の新しいアレイを参加させて終わり。ポートが足りなくなったら > 一番小さいアレイからデータ掃き出して外す。 参考までに教えて欲しいのだが、この掃き出しというのはpvmoveで 大きいアレイにデータを寄せて、resize2fsでfsを縮小、 vgreduceでLVをVGから外す、という流れでおk?
52 : >>51 減らすときはfs-LV-VG-PVっていうレイヤの上から、増やすときはその逆。 なので手順はresizefs→lvreduce→vgreduce→pvremoveだし、 増やすときはpvcreate→vgextend→lvextend→resizefs
53 : 途中で送信してしまった。 (通常の構成なら)RAID(md)層はPVのさらに下に来る。 あとはLVMスレで頼む
54 : >>52 lvreduceすると自動的にpvmoveされるっけ?
55 : Linuxのmdで、ローカルにATAやSCSIのディスクがつながっていて なんらかの冗長化をしたい、というシチュエーションに限定した話で いいんですけども、 ・ディスク全体でmdを構成して、md上にパーティションをつくる ・パーティション分けてから、パーティションごとにmdをつくる 利点欠点について説明する場面があるんだけど、何を言えばいいだろう。 その気になれば後でどうにでもなるからどっちでもいいや、 とつい思ってしまうんだけど…… 話す相手は「コンピュータには慣れているけど(学問的な意味で) サーバメンテ的なことには詳しくない人」です。
56 : つまり、お前もよく理解していないってこった。
57 : LVMスレへの誘導をもろともしないバカなんだし、許してやれよ…
58 : >>50 > ちなみに、md0はLVMに組み込まれています。 答えが書いてあるんじゃないかって気がする。
59 : >>57 誤:もろともしない 正:ものともしない
60 : >>52 が>>51 への返答になってないことにも気づかず偉そうだな…… > /dev/null
61 : ねぇ、LVMで足らない分をポチポチ足していったら JBODみたいに1つでも壊れたらまずいHDDアレイにならない?
62 : >>48 ですが、A案で構成中に問題が >>49 さんを参考に500GB+1TBをlinear arrayでつないでみたのですが、 OS再起動するとRAID構成から外れてしまう # mdadm --create /dev/md1 --level linear --raid-devices 2 /dev/sdf1 /dev/sdg1 # mdadm /dev/md0 --add /dev/md1 # mdadm --grow /dev/md0 -n 5 これで一旦はmd0に組み込まれるんだが、OS再起動すると/dev/md1が外れる 恐らくOS起動時、/dev/md0を構成するときに/dev/md1が構成されていないからだと思うんだが /dev/md0を/dev/md9としてもダメだった 今度lvmからmd0への組みこみを試してみようと考えているが、 linear arrayでできる方法はないのだろうか?
63 : initrd作り直したか?
64 : ubuntu9.10からのpalimpsestディスクユーティリティつかったソフトウェアRAIDやってる人はいるかい?
65 : まぁFedora11から入ってるから、いるんじゃね?
66 : いやー自動マウントの設定がうまくいかなくてさー
67 : そこそこIOPSの高い数TBのストレージを作りたいんですが、 基本的にはディスク本数を増やすアプローチで良いのでしょうか?
68 : 数TB程度ならSSD並べるだけでいいだろ
69 : swapを冗長化するという話はほとんど聞きませんが、 swap域でディスクエラーが起きたらどうなるのでしょうか? プロセスが突然死するのでしょうか? 暴走することもあるのでしょうか? 一般には、swapを冗長化するデメリットが プロセスが突然死したりするかもしれない心配より 大きいと考えられているのでしょうか?
70 : 別の質問です。 sdaとsdbでraid1を組んだとき、 sdaがあるビットは1だと言い、sdbはそのビットは0だと言ったら 何が起こるのでしょうか?
71 : >>70 これは間抜けな質問だったかもしれません。raid5などと混同していました。 無視してくださって結構です。
72 : >>69 前半 YES。ただそれが問題になる場合は、スワップをしないように最大まで メモリを載せる。スワップしたら負け。
73 : >>72 早っ。 今までスワップは、とにかくするもんだと思っていましたが、吹っ切れました。
74 : >>69 実際にやってみた。 物理メモリにマッピングされているページを、わざとスワップアウトさせた状態で: sudo /bin/sh -c 'cat /dev/zero >/dev/<swap>' ええ、フリーズしました。 どうしたらよいでしょうか?電源ボタン長押しでいいですか?
75 : 物理メモリの延長と考えればメモリの破損だからなあ そりゃ止まるよね
76 : でもさ、ユーザ空間のプロセスなんてカーネルに管理されているんだから 強制的に終了させられることは珍しくないじゃん? だからさーそういう例外を予測して、完全には無理だろうけど、 フェイルセーフな方向に失敗させるのがプログラマの仕事じゃないかな?
77 : OSとアプリの責任分界をまるっきり無視だなw
78 : 初心者なのでこのスレには不似合かもしれないんですけど 緊急事態なので教えてください REID0を組んでるのですがマザーが逝ってしまったらしく BIOSまで行き着かず電源が落ちてしまいます なんとかHDのデータだけでも救出したいのですが ほかのマザーでもREIDのHDは認識しますか? 可能でしたらその手順も教えていただけたら... お願いいたします
79 : ソフトRAIDなのかハードRAIDなのか。 ハードなら同じハードを揃える。 ソフトなら移し変えるだけ可じゃね? もうちょっと環境詳しく。
80 : >79 ありがとうございます DELL DIMENTION 9100のBTOのメーカー設定のソフトウェアREIDです 自分としては他のマザーで大丈夫なら 今時のマザーとCPUを購入して他のパーツを流用できれば理想なのですが 同じマザーでなければ無理なようでしたら ヤフオクで純正のマザーを落とそうかと思ってます
81 : WindowsXPモデルしか無いみたいだけどここはLinux板だよ。
82 : REID て。
83 : ローマ字入力してる人に多いタイプミスだから気にしない… (わたしは親指シフトだから…笑)
84 : タイプミスだろうが何だろうが繰り返してる上に直す気がない時点でダメ認定済みなわけだが
85 : RAID0でデータを救出って時点で頭おかしいね RAID0はなくなってもいいデータを入れるものだろうに
86 : >RAID0でデータを救出って時点で頭おかしいね ディスクが逝かれたってことじゃないみたいだし、 そこは別にいいだろ。
87 : 質問です 元々 本体:eSATAカード増設 外部ストレージ:PMP対応のeSATA接続の箱にHDD2本(sdc, sdd)でRAID0 OS:fedora 11 の構成のサーバにfedora12をクリーンインストールしました。 インストール後、sdc、sddとも見えてて、sdc1、sdd1の各パーティションも0xfdで見えてますが、 RAID0の状態では見えていない状況です この状態でRAIDの組みなおしは可能でしょうか?
88 : 意味不明
89 : たぶん, sdaにFedora11入れてて,sdc,sdcをSoftRAIDしてたのが, sdaをFedora12にしてSoftRAID設定が消えちゃったって 言ってるみたいだね〜 Fedoraに強い人!助けて〜(笑
90 : >>87 まず確認してほしいけど、起動後に、 mdadm -A /dev/md0 /dev/sdc1 /dev/sdd1 とすると、RAID0のアレイは動くんだよね? それで動かないようなら、dmraidが悪さをしている可能性がある dmraid -r としてみて、/dev/sdcや/dev/sddが出てくるようならそれに該当する
91 : ソフトウェアRAIDで、dmraid って、ググっても古い記事しか見つからないんだけど、今でも再構築周りの不安定さってあるんでしょうか。確実に再構築できることを求めるなら、やっぱり md で組むべき?
92 : >>91 逆にdmraidを使いたい理由を教えてほしいんだけど Windowsとかとアレイを共用してるとか? それとも最近のマザーにはparity計算するハードとか載ってるのかな? 枯れてるという意味でも、柔軟性でもmdの方がいいと思うけどな たとえば、マザーが壊れたとかした場合、dmraidだと移行が面倒 mdだとそんな制限ないし、スーパーブロックの構造もわかってるので、壊れても なんとか修復できたりする
93 : >>90 返信ありがとうございます。 fdiskではsdc1、sdd1とも0xfdで見えていたのでデバイスファイルもあるものだと思い込んでいましたが /devを見たところsdc1、sdd1ともない状況でした 現在はcat /proc/devicesを見たところ、sdのメジャー番号が8でしたので、mknod b 8 XX /dev/sdc1 とやってみたところinvalid major number '8' とでてきて詰まってる状況です ちなみにmdadm -A /dev/md5 /dev/sdc /dev/sddを実行した結果を貼り付けて見ます [root@sv1 ~]# cat /proc/mdstat Personalities : [raid1] md5 : inactive sdc[1](S) sdd[0](S) 4514 blocks super external:imsm
94 : >>93 >fdiskではsdc1、sdd1とも0xfdで見えていたのでデバイスファイルもあるものだと思い込んでいましたが >/devを見たところsdc1、sdd1ともない状況でした あり得ない。じゃあ、fdiskは何のファイルをオープンしてるんだよって話だ 実際そうなんだというなら、 strace fdisk /dev/sdc の結果を張ってみてくれ >現在はcat /proc/devicesを見たところ、sdのメジャー番号が8でしたので、mknod b 8 XX /dev/sdc1 >とやってみたところinvalid major number '8' とでてきて詰まってる状況です その「XX」が合ってるかどうか気になるな デバイスファイル作るなら /dev で ./MAKEDEV sdc としてみたら?(余計なファイルもいっぱいできるけど) まぁ、いずれにしても通常はudevが作るわけだし、mknodできないとすれば別の理由か mount の結果と dmesg の結果でも張ってみてくれよ(dmesgは長いからsdc、sddの認識部分だけでいいや)
95 : >>94 自己レス ちょっと勘違いしてた 状況を整理すると、/dev/sdcと/dev/sddは存在しているわけだな。んで、/dev/sdc1と/dev/sdd1がないと パーティションテーブルが壊れているのか、非互換なのか…という感じですか とりあえず fdisk -l /dev/sdc fdisk -l /dev/sdd の結果と、dmesgのsdcとsddの認識部分のログが見たいですな
96 : >>95 度々すみません # fdisk -l /dev/sd[c,d] ディスク /dev/sdc: 500.1 GB, 500106780160 バイト ヘッド 255, セクタ 63, シリンダ 60801 Units = シリンダ数 of 16065 * 512 = 8225280 バイト Disk identifier: 0x00072abe デバイス ブート 始点 終点 ブロック Id システム /dev/sdc1 1 60801 488384001 fd Linux raid 自動検出 ディスク /dev/sdd: 500.1 GB, 500107862016 バイト ヘッド 255, セクタ 63, シリンダ 60801 Units = シリンダ数 of 16065 * 512 = 8225280 バイト Disk identifier: 0x00095176 デバイス ブート 始点 終点 ブロック Id システム /dev/sdd1 1 60801 488384001 fd Linux raid 自動検出 (続く)
97 : (続き) # dmesg | grep sd[c,d] sd 6:0:0:0: [sdc] 976771055 512-byte logical blocks: (500 GB/465 GiB) sd 6:0:0:0: [sdc] Write Protect is off sd 6:0:0:0: [sdc] Mode Sense: 00 3a 00 00 sd 6:0:0:0: [sdc] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA sdc: sd 6:1:0:0: [sdd] 976773168 512-byte logical blocks: (500 GB/465 GiB) sd 6:1:0:0: [sdd] Write Protect is off sd 6:1:0:0: [sdd] Mode Sense: 00 3a 00 00 sd 6:1:0:0: [sdd] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA sdd: sdc1 sd 6:0:0:0: [sdc] Attached SCSI disk sdd1 sd 6:1:0:0: [sdd] Attached SCSI disk >その「XX」が合ってるかどうか気になるな # ll /dev/sdc brw-rw---- 1 root disk 8, 32 2010-02-13 15:31 /dev/sdc となっていましたのでマイナー番号は33を指定してました
98 : >>96 >>97 fdiskの結果もおかしくないし、デバイス認識にも問題ない mknodのマイナー番号指定もおかしくない(33であってる) だけど、/dev/sdc1の作成には失敗するし、そもそもudevでの自動認識もできないわけですか どうにも謎ですな PMPに接続しているHDDをマザー上のSATAポートに接続しなおしてテストしてみるというのはどうでしょう ある程度問題の切り分けが可能かも。または、別のHDDを接続して、区画設定からやり直すとか SELinuxが何かしてる? restorecon -R /dev してみるとか(これで解決するとも思えんが…)
99 : >>92 いえ。dmraid の方が高速だって記事を見かけたことがあるもので(ソースは失念しました)、安定してるなら入れてみようと思っただけなんです。
100read 1read
1read 100read TOP カテ一覧 スレ一覧 2ch元 削除依頼 ▲
Pinguy OS 1 (272)
【マジレス】超初心者の質問に答えるスレ1【エスパー】 (705)
( ´_ゝ`)流石(´<_` )ぃぬx板 (786)
【CD/USB】PuppyLinux - 11匹め - 【軽量】 (312)
DebianとCentOSってどっちが鯖向きなの? (494)
KDEスレ Part 9 (224)
--log9.info------------------
黄初の中原に鹿を追うスレ (312)
横山三国志の名台詞 (325)
関羽と俺の関係(復刻版) (575)
読めなかった武将 (215)
【武士・忍者】太閤立志伝X総合スレ in三戦【水軍・商人】 (352)
三戦板の日々の投稿数を記録するスレ (487)
三国志最強の漢、劉禅公嗣について語るスレ (335)
3の倍数と3の付くレスの時は武将っぽくなるスレッド (365)
●宣言できる正式な理由も無いのに皇帝を称した孫権の件について● (224)
呂布に天下統一の可能性はあったのか (329)
曹操と劉備が逆だったら劉備の天下になったの? (508)
曹操の陵墓発見、遺骨も出土 2 (567)
中国は関羽、日本は孔明、アメリカは曹操が好き (312)
なんで伊達政宗ってアンチ多いの? (420)
今度やる赤壁の戦いの映画 (627)
三戦板的には蜀漢滅亡の戦犯って誰なの? (393)
--log55.com------------------
【越中八尾】おわら風の盆【唄の町だよ】 その9
ビジホdeデリヘル!
二度と行きたくない所の決定戦 Part.2
しまなみ海道とびしま海道時々瀬戸
【うどん】香川の観光地【うどん】2
一人旅が好きなスレッド3
八重山離島スレ2
そうだ 増毛、行こう。