1read 100read
2012年09月UNIX40: OpenSolaris/Illumos (OpenIndiana, etc.) 6 (206)
TOP カテ一覧 スレ一覧 2ch元 削除依頼 ▼
中級者もOK! FreeBSD質問スレッド (861)
UNIXの定番環境と新環境 (240)
性善説のUNIXサーバVI (717)
unixと数学 (302)
BSDで最強のデスクトップを構築するスレ (215)
FluxBoxを語ろう (592)
OpenSolaris/Illumos (OpenIndiana, etc.) 6
1 :2012/05/19 〜 最終レス :2012/11/01 OpenSolaris/Illumos プロジェクト、派生ディストリビューション総合スレ Sun/Oracle からリリースされる本家「Solaris」に関しては専スレでお願いします 前スレ:OpenSolaris/Illumos (OpenIndiana, etc.) 5 http://toro.2ch.net/test/read.cgi/unix/1285876800/ OpenSolaris 公式サイト http://opensolaris.org/ Illumos 公式サイト http://illumos.org/ Genunix(OpenSolaris コミュニティ/ミラーサイト) http://genunix.org/ [ディストリビューション一覧] ・ OpenIndiana http://openindiana.org/ (OpenSolaris distro == Indiana の実質的後継、Solaris とバイナリ・パッケージ互換) ・ Nexenta OS http://nexenta.org/ (Solaris/Illumos カーネルと Debian/Ubuntu ユーザランドの組み合わせ) ・ StormOS http://stormos.org/ (Nexenta ベースのデスクトップ向けディストリビューション) ・ AuroraUX http://auroraux.org/ (通常の x86、AMD64 に加え、PowerPC にも対応) ・ Jaris http://jaris.jp/ (日本発のプロジェクト) ・ Belenix http://belenix.org/ ・ SchilliX http://schillix.berlios.de/ ・ MilaX http://milax.org/ ・ etc.
2 : >>2 の[ディストリビューション一覧] だけど、大分現状とは異なってるので直したほうがよさそう。 [ディストリビューション一覧] ・ OpenIndiana http://openindiana.org/ (OpenSolaris distro == Indiana の実質的後継、Solaris とバイナリ・パッケージ互換) ・ Illumian http://www.illumian.org/ (Solaris/Illumos カーネル・ユーザランドとAPTパッケージ管理システムの組み合わせ NexentaCore後継) ・ NexentaStor http://nexenta.org/ (Solaris/Illumos カーネルと Debian/Ubuntu ユーザランドの組み合わせによるストレージサーバ用OS) ・ StormOS http://stormos.org/ (Nexenta ベースのデスクトップ向けディストリビューション) ・ OminiOS http://omnios.omniti.com/ ・ SmartOS http://smartos.org/ (以下のディストリビューションは長期間更新なし) ・ AuroraUX http://auroraux.org/ (消滅) (通常の x86、AMD64 に加え、PowerPC にも対応) ・ Jaris http://jaris.jp/ (消滅) (日本発のプロジェクト) ・ Belenix http://belenix.org/ (消滅) ・ SchilliX http://schillix.berlios.de/ ・ MilaX http://milax.org/
3 : おはようございます。前スレ>>975 です。新スレ乙です。 ご報告遅くなりすいません。代替機は用意できたのですが、前スレ>>989 の段階でscanが 終了していなかったため、一応それを待っていました。先ほどscanが終わり、以下の状態になりました。 pool: tank state: DEGRADED status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: http://www.sun.com/msg/ZFS-8000-8A scan: resilvered 118G in 39h45m with 271168 errors on Mon May 21 05:12:12 2012 config: NAME STATE READ WRITE CKSUM tank DEGRADED 0 0 2.95M raidz1-0 DEGRADED 0 0 11.4M spare-0 DEGRADED 0 0 660 c6t1d0 FAULTED 0 0 0 too many errors c3t5d0 ONLINE 0 0 0 c6t2d0 DEGRADED 0 0 0 too many errors c6t3d0 DEGRADED 0 0 0 too many errors c6t4d0 REMOVED 0 0 0 spares c3t5d0 INUSE currently in use errors: 271145 data errors, use '-v' for a list SMART情報ですが、SATA2とSATA5の2台でBADが発生しています。やっぱり物理的に2台に 問題が発生してしまっているようです。ダメっぽいですね。 一応、これから代替機につないでみます。
4 : もう一台スペア追加してみるかな
5 : http://www.oracle.com/technetwork/jp/content/1202-1500-ords-zfs4-251476-ja.pdf 以前ここに貼られてたやつけど、この資料によるとHD1台破損時の 再構成失敗率がRaid5で2〜20%、Raid6でほぼ0%らしいから スペア追加ではなくRaidZ2に移行してみては?
6 : いや、そーゆー話じゃなくて 現状の構成にスペア追加したらどうかな、と
7 : ホットスペア持つなら最初からRAIDZ2の方がいいと思うが 細かくチェックしてトラブル時にすぐに入れ替える方がいい
8 : それはそーだけど、そーゆーことじゃなく 今追加したら回復しないかな?って話
9 : >>8 Applications may be affected. って言ってる時点で回復は難しいぞ 読めなかった部分が読めるようになれば別だが
10 : oiの場合、S.M.A.R.Tは何ていうアプリを入れれば 見れるんでしょう?
11 : >>10 smartmontools
12 : ZFSってHDDを個別識別出来たっけ? ベタコピーで同じディスクと認識するならディスク4台用意してddした方が早いかもしれない。
13 : >>10 /opt/SUNWhd/bin/hd
14 : みなさん、お世話になってます。色々な提案や情報提供、感謝です。 まだ、作業中ですが、中間報告します。 代替機は土日に届いたのですが、結局そこにつなぎ換える作業はやめて、 バックアップ先として利用しました。 今回の故障機はiscsiターゲットとして利用していたのですが、故障直後は 認識できなくなってしまっていたのに、リセット後は認識できるようになり、 ボリューム内のファイルも読み込み可能でした。 そこでiscsiイニシエータ側から別サーバーにファイル単位でコピーしている最中です。 コピー1回目はIOエラーがかなり出て読めないファイルも多かった上に、 oi自体が勝手に落ちてしまう(電源OFFになる)という状態でした。 そこで一度電源OFFし半日程してからコピーをやり直した所、IOエラーが 発生していたファイルも読めるようになりました。内容はVMイメージ等、 巨大なファイルが多いのですが、テキストファイル類をcatで覗いてみた所、 正常な内容を確認できました(電源OFF前は読めなかった)。 こう考えると冷却が良かったように思えますし、今考えればOSの正常終了を 1週間も待ったりしないで、早々に電源OFFし1日ぐらい冷やす方がよかったのかも 知れないと思えてます。 まだコピー中ですが、コピーが終わったらVMを起動してみようと思います。
15 : 前スレ975です。 まだまだ復旧に時間がかかりそうなのですが、いい感じに復旧しつつあるのでご報告します。 故障機はiscsiイニシエータで、ファイルシステムは vmfs(ESX専用ファイルシステム)を利用していますが、 約50個ぐらいのVMが格納されていました。このうち、重要度が高かったり、バックアアップが古いのでなんとか 復旧したい物は1割程度なのですが、それらはほぼ全て復旧できました! ファイル単位でscpでコピーしている最中なのですが、それぞれのファイルは、 1群. 何度アクセスしてもアクセス不能な物(ごく少ない) 2群. 何度かアクセスしているうちにアクセスできなくなってくる物(3割程度) 3群. 正常にアクセスできる物(7割程度) というような感じです。2群のファイルは4、5時間マシンを止めてからアクセスすればまたアクセス できる状況です。10分程度の冷却では無理でした。 そのような感じで順次、復旧している最中です。 将来、同じ状況に陥ってしまった場合、是非マシンの冷却を試みて下さい。 作業終了時にまたご報告します(しばらく先になりそうですが) 色々なノウハウをご教示頂き、ありがとうございました。
16 : 訂正 故障機はiscsiイニシエータで、 ↓ 故障機はiscsiターゲットで、
17 : なんか出てる ttp://sparcv9.blogspot.jp/2012/05/illumian-available-for-download.html
18 : スレチかも知れませんが、教えてください。 OpenIndianaの151aにKVMをインストールしたのですが、/dev/kvmがありません。 手順としては driver/i86pc/kvm、system/qemu、system/qemu/kvmインストール後再起動 BIOSがIOMMUに対応していなかったので、アップデート後有効 /dev/kvmが無かったので、インストールしたものを一度削除し再インストールしました。 インストールして正常に動作されている方、何かヒントをいただけたら。
19 : >>18 カーネルモジュールがロードされてないとか ハードウェアの対応が不十分とか
20 : pfexec pkgutil -i -y hogehogeすき。 pfexec pkg install hogehoge死ぬほどきらい。
21 : 個人用ファイルサーバーにしてるOpensolarisからそろそろ乗り換えようかと思うんだが Sol11とOIのどっちにするか悩む ファイル共有関連の設定方法に違いが出てきてるし
22 : zfsってWWNできちんと使える? 今、HDDの1台を交換しているんだけど、WWNが変わるせいで組み込めない 変な汗が出てきたよ
23 : エラーメッセージ書いてみたら?
24 : zpool replace がエラーになるってことなんかな?
25 : usr1@oi151a:~$ zpool status -v zpool pool: zpool state: DEGRADED status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: http://www.sun.com/msg/ZFS-8000-8A scan: scrub canceled on Mon Jun 11 20:59:18 2012 config: NAME STATE READ WRITE CKSUM zpool DEGRADED 703 0 0 c2t50014EE111111111d0 ONLINE 0 0 0 c2t50014EE222222222d0 ONLINE 0 0 0 c2t50014EE333333333d0 DEGRADED 703 0 10 too many errors c2t50014EE444444444d0 ONLINE 0 0 0 errors: List of errors unavailable (insufficient privileges) こうなっていたので、
26 : 電源切って別のHDDに入れ替えたら usr1@oi151a:~$ dmesgzpool status -v zpool pool: zpool state: UNAVAIL status: One or more devices could not be opened. There are insufficient replicas for the pool to continue functioning. action: Attach the missing device and online it using 'zpool online'. see: http://www.sun.com/msg/ZFS-8000-3C scan: none requested config: NAME STATE READ WRITE CKSUM zpool UNAVAIL 0 0 0 insufficient replicas c2t50014EE111111111d0 ONLINE 0 0 0 c2t50014EE222222222d0 ONLINE 0 0 0 c2t50014EE333333333d0 UNAVAIL 0 0 0 cannot open c2t50014EE444444444d0 ONLINE 0 0 0 こうなった。接続先は同じなんだけどzfsには新しいc2t50014EE999999999d0は認識されない
27 : 名前を指定してreplaceしようとしたら usr1@oi151a:~$ zpool replace zpool c2t50014EE333333333d0 c2t50014EE999999999d0 cannot open 'zpool': pool is unavailable poolがUNAVAILなのが駄目らしいので、ONLINEにしようとしても usr1@oi151a:~$ zpool online zpool c2t50014EE333333333d0 cannot open 'zpool': pool is unavailable これでもやっぱり駄目 usr1@oi151a:~$ zpool online zpool c2t50014EE999999999d0 missing device name といわれてONLINEにできない、今ここ
28 : もしかしてそれstripeなのか?
29 : stripeだから次のようにメッセージが出てるわけだな status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. 冗長デバイス抜きのpoolがHDD交換で復旧すると思ってたんだろうか?
30 : 変な汗どころじゃ済まない話になってきたな
31 : 壊れたディスクをddなりでイメージコピーしてみる、位か……
32 : 壊れたHDDってddで読み出せるの?
33 : 元の状態でプールがDEGRADEDってことは辛うじてアクセスできんのか? だったらその死にかけのHDD戻してある程度のデータは救えないのかな
34 : あれ?stripe? usr1@oi151a:~$ sudo zpool history | grep "zpool create" 2011-03-13.17:49:21 zpool create zpool c2t50014EE111111111d0 c2t50014EE222222222d0 c2t50014EE333333333d0 c2t50014EE444444444d0 あばばばば pool作り直して首つってきます。
35 : zpool statusの時点で気付けw
36 : >>33 比較的軽傷な単一ディスクのプールならやったことあるけど ストライプメンバーだとどうなるんだろうな?
37 : >>36 自分の場合、被害を受けているのは最近書き込んだファイルのみで それ以外の部分は問題がありませんでした。当然、HDDの壊れ方に もよると思いますが。 しかし、運用中にWRITEでエラーが出ていないのにREADでNGって いやですね。定期的にscrubしておけばよかった。
38 : >>32 「正常に」読み出せるかどうかは、運次第 conv=noerror とかして、とにかく読めるところだけでもコピーするって話
39 : >>37 SATA HDDだとREAD ERROR発生で終了というパターンが基本じゃね? 代替領域がある限りこそっと処理してるからSMART見てなきゃ気付かないはず
40 : copies=2 とか指定してたとするとstripeメンバが死んだ状態でもそれなりに生きてるファイルは読み出せる・・・ のではないかと予想はしているが実験してみたことはない。 あんまり使う予定が思いつかないがどうなんだろうな>copies
41 : >>40 そのはず…だけどおれも試したことないわw RAIDZかミラーするから
42 : そのコピーって別のディスクにって言う保証は無かった気がする
43 : zfsのマニュアルページにはこう書いてあるな copies=1 | 2 | 3 Controls the number of copies of data stored for this dataset. These copies are in addition to any redundancy provided by the pool, for example, mirroring or RAID-Z. The copies are stored on different disks, if possible. 「可能なら」別のディスクに書くみたいだな しかし冗長性なしのpool選んでこれに期待するのって単なるバカだろw
44 : そんな奴は居ないので安心しろ
45 : oi_151a_prestable5来た ttp://wiki.openindiana.org/oi/oi_151a_prestable5+Release+Notes
46 : もうopensolaris時代みたいにSPARC版出さないのかね。
47 : >>46 出したいけどSPARC用の人員が足りてないらしい 我こそはと思う人はぜひ名乗り出てほしいそうな
48 : LSI の SAS HBA に Supermicro の JBOD を使っている時に、cfgadm -c unconfigure を実行すると該当のスロットのランプは点灯してくれますか?
49 : unconfigureで自動点灯させる意味がわからん 保守したいHDDの位置を示すならlocator使うだろ JBODって本来はspanningのはずなのに 単純な複数HDD筐体までそう呼ぶ連中がいて紛らわしいな
50 : >>49 そういうオプションがあるのですね。 ディスクが故障した場合は、unconfigure -> locator=on -> 交換 -> locator=off -> configure という感じでしょうか。 よび方は JBOD chassis とよんだほうがいいですか?
51 : JBODでディスク交換なんてことになったらデータすっ飛んでるんじゃね?
52 : ZFS で mirror を組もうと考えていて、ドライブが故障した場合に間違えずに 交換する方法があるのかと思い質問させていただきました。 ZFS は RAID カードを使わないことが推奨されているようですが、今は状況が 変わっていたりしますかね? WriteBack Cache が付いた RAID カードなら RAID カードで RAID を組んだほうが 速いんじゃないかという気もしますが。
53 : >>52 ZFSのメリットなくてもいいなら、 それでも良いんじゃ。 ま、好きにしろって事だが。
54 : 最初にスロットなりコネクタなりディスクなりにシールでも貼っとけばいいんじゃねーの? あと、今時、生の UFS で使える程度の容量で我慢できるものなのかね? どっちにしろ svm なり使うんだったら、zfs の方が管理上マシだと思うが
55 : >>53 raw disk を使うメリットって何? WriteBack Cache を使うと、ZIL を SSD に置かなくても、 書き込みが遅くならないというメリットがあるけど。
56 : >>54 いや、RAID はハードウェア RAID で作って、その上に ZFS を作るということです。
57 : 冗長性ェ…
58 : #この手のバカって、なんで後付で条件増やすんだろう? RAIDカードに金払わなくて済むならそのほうが安く上がるだろ そも、なんでSSD付きのRAIDカードなんてものがあるんだろうねぇ?
59 : SSD付きのRAIDカードとははつみみです :)
60 : ZFS って貧乏人のためのファイルシステム?
61 : そう思っていた時期が俺にもあr(ry 一回使ってみろよ。ちびるで。
62 : 最近の LSI SAS 2208 速いですぜ。
63 : >>60 本体メモリは逆に必要になるけどなw
64 : >>60 金持ちじゃないと性能が出ません
65 : ふむふむ... Solaris 11, OpenIndiana, and NexentaStor benchmarks on ESXi 5.0 http://blog.b3n.org/2011/12/solaris-11-openindiana-and-nexentastor.html
66 : 結構差があるもんだな…。
67 : ちと教えて頂きたいのだけど、 OpenIndianaでpkg install使ってgccやmysqlなど落とした際、 BEが勝手に作成されて再起動を促されるが、以後GRUB直後で再起動を繰り返してしまう。 何かオペレーションが抜けているんだろうか? インストールしたのはoi-dev-151a-text-x86.iso。
68 : eだかcだか押してgrub書き直してみたらどーだい。 んでmilstone切って(メンテナンスモード?)で上がるかやってみる。 問題の切り分けにはなると思うんだけれど。
69 : milestone=none指定でも上がらないようだった。 なんでだろ。
70 : 今手元に86機が無いから確認しようもないのだけれど、恐らくgrubの指定が間違っているのが原因だと思うなぁ。 そういや86のopen使ってた頃、無理矢理updateしたら上がらなくなった(自業自得) もし古いBEが残っているならそっちを試すしか。
71 : Ummm... システムが修正してくれてるのに頼ってるところもあるからなぁ。 Solaris11だったらうまくいったりするのかな。試してみる。
72 : H/W RAIDってそんな早いか?自由度下がるし。
73 : MegaRAID SAS 9265-8iを使ってみなさい。
74 : 仕様が同じでも、製品ごとで性能に凄く差が出るよね。
75 : メモ: Adobe Flash Player 11.2 はプラットフォームとして Solaris をサポートする最後のバージョンです。 BSDを思い出す…。
76 : Flash Player自体が時代遅れ
77 : http://get.adobe.com/jp/flashplayer/otherversions/ ここ見ると Linux 版でも同じようなこと書いてあるし、 つうか Windows 版の方がもっと古くね? >>76 の通りなのかも…
78 : そういやMOSのFlashバーションも廃止されたなw
79 : OpenSolarisって、Linuxでいうbondingドライバみたいなのないの?
80 : >>79 dladm create-aggr とか...
81 : LSI SAS 2308 でデバイス名からスロットを特定するのには、 LSI から落してきた、SAS2IRCU を使うしかないんですかね? cfgadm はこんなかんじでした。 root@solaris:~# cfgadm -x led c6::j5000ppn225q63669,0 cfgadm: Configuration operation not supported root@solaris:~# cfgadm -x locator c6::j5000ppn225q63669,0 cfgadm: Configuration operation not supported
82 : そういや io 151a5 出てたで。
83 : >>82 >>45 で既出やで
84 : SchilliX 0.8 release
85 : 151a5でストライプミラーからraidz2に移行しようと思って、vdevをzfs send | receiveしたら、zfs listのusedが、元のと比べて倍になってもうた。 どなたか経験した方います?
86 : >>85 copies = 2 になってるとか? REFERが同じならUSEDが違うのはusedbysnapshotsとかチェックしてみるとか
87 : oi_151a_prestable6 Release Notes ttp://wiki.openindiana.org/oi/oi_151a_prestable6+Release+Notes
88 : アップデートでカーネルパニック祭りを喰らったからp5をクリーンで入れて環境構築終わったばっかりなのにorz
89 : >>86 ありがとうございます。 確認してみます。
90 : >>88 今回はバグと脆弱性対応だからISOファイル無しと書かれていて アップデートしかできないはずだから安心しろ
91 : 最近活発だな。 プロジェクトリーダーの退任と、なんか関係あるのか?w
92 : AndroidのカーネルっていうかLinuxと呼ばれるものを全て取り除いて Android/OpenSolarisや Android/Illumos って事にできるの?
93 : やってみ。
94 : >>93 可能なのか可能じゃないのか知りたいんだけど。。
95 : やってみればわかるよ。 やるつもりがないなら答え知ってもしょうがないよ。
96 : ARM版illumosが存在しないから、x86版Androidでやるか、 illumosをARMに移植する作業からやることになるけど、不可能ではないはず
97 : ARM版OpenSolarisはあるな
98 : >>94 可能
99 : >>94 不可能
100read 1read
1read 100read TOP カテ一覧 スレ一覧 2ch元 削除依頼 ▲
【さぁ】NetApp【あっぷっぷ】 (599)
karaage( ゚Д゚)ウマウマ (678)
【さぁ】NetApp【あっぷっぷ】 (599)
NetBSD その28 (610)
【tc厨が】bash3.0登場!!【嫉妬する】 (228)
FreeBSDの最後を見届けるスレ (411)
--log9.info------------------
【スキン】青々の坊主頭がイイ!【ゴリン】 (538)
【♀限定】BIAN×BIAN【SNS】 (490)
エイズ お薬の副作用 あたしの場合 その19 (459)
航がOSUINRA「男たちの絆」で健太と濃厚R (309)
【ハッテン】雷神・歌舞伎町の発展場【ステマ】 (409)
【東北】青森 秋田 岩手 山形 【ゲイ事情】 (725)
★☆★☆ゲイバレー≪東京編≫★☆★☆ (313)
■■■新潟県のゲイ事情■■■ (242)
関西(大阪京都兵庫)マッサージ情報総合 part6 (790)
【ノンケ】 ゲイにいいたいこと ☆6 【限定】 (461)
【ガチ】浅草24会館について語ろう (977)
【堂山】いい感じのお店と感じ悪い店【22軒目】 (230)
【大江戸】東京デブ×細事情23 (894)
G-menスレッド 21 (914)
【男】平井堅 21【穴】 (568)
年収の多いゲイたちの生活 (303)
--log55.com------------------
【艦長軍団】嵐の犯人は統失花火警察に補導され中絶するわ拾い画で自慢するわ統失クズで社会のゴミ
寝る前にこのまま眠るように死ぬことを祈るスレ8
【コテ歓迎】メンヘラ同士の雑談:相談スレpart175
鬱・無気力しりとり PART335
【注意】嵐の犯人は重度の不眠症若槻 ◆/HV2b6TqMw 今日も眠れナイ【リバーシしようよ】
メンサロに蔓延る健常者とファッションメンヘラを晒すスレ
健常者とエセメンヘラはこの板から出て行け
うつ病でDVで離婚