2012年09月UNIX11: 【Debian】 Nexenta OS 【OpenSolaris】 (245) TOP カテ一覧 スレ一覧 2ch元 削除依頼
meadowについて語ってくれなスレッド (255)
シェルスクリプト総合 その20 (939)
【MRTG/rrdtool】 グラフィカルモニター化 Part3 (961)
Vim Part21 (526)
もしも、てぃんぽにIPがあったら (337)
w3m その8 (477)

【Debian】 Nexenta OS 【OpenSolaris】


1 :2005/12/20 〜 最終レス :2012/10/30
DebianベースにOpenSolarisのカーネルを搭載
http://www.gnusolaris.org/gswiki

2 :
すいません削除します

3 :
自己解決しました。

4 :
また名前付けただけOSか

5 :
Debian GNU/OpenSolaris? な「Nexenta OS」
http://slashdot.jp/linux/article.pl?sid=05/12/20/0824217

6 :
カーネルとCランタイムがOpenSolarisで、その上にUbuntuなユーザーランドを移植したやつね。

7 :
BSDも生き残るにはこのくらいのことせんといかんね

8 :
誰かUbuntuと性能比較しないかな?

9 :
使ってる人いるの?

10 :
インストールCD、もう少し小さいのないかな・・・
ISDNで落とすにはしんどいっす・・・

11 :
ライセンス問題で議論するぐらいなら、
GNUじゃなくて*BSDの上に乗せればよかったのにね。

12 :
>>7
BSDに載っけたヤツならDebian GNU/kFreeBSDがあるじゃん。

13 :
NexentaOS Alpha 2 released
http://lwn.net/Articles/169941/

14 :
NexentaOS Alpha 3 Released
http://www.osnews.com/story.php?news_id=13774

15 :
Nexenta OS Alpha 4 Released
http://www.osnews.com/story.php?news_id=14174

16 :
なんて読むの?
・SchilliX
・BeleniX
・Nexenta

17 :
>>16
UNIXに関する言葉のひらがな読みスレッド
http://pc8.2ch.net/test/read.cgi/unix/1001358861/

18 :
以前 debian を入れていた ThinkPad に Nexentaを導入
目標は debian と同じ環境にすること
speedstepとhibernation以外は何とかなってきた
一番致命的なのは java swing で日本語入力が出来ないこと
これさえクリアできれば、仕事用としても十分使えるのに
日本語localeが無いので自前で用意したり、日本語入力にUIM追加したりで
まだ packageだけでは足りないものも多いが、ZFS使えるのは魅力的

19 :
Alpha 5のLiveCDを焼いてみたのですが、
LiveCDなのにアカウントとパスを聞いてきます。
ログインできません。
サイトには特に説明はなかったと思います。
どこを見落としているのか自分ではわかりません。
誰かログインする方法を教えてください。
よろしくお願いします。

20 :
Alpha5のLiveCDのアカウントとパスがわかりました。
root
livecd
で入れました。
64bitで正常に動きました。
無線LANもGUIで設定できそうでした。
少し重たいのが気になりましたが、
Linuxに負けてないGUIの出来栄えでした。
チラシの裏カキコあげ

21 :
>>20 それ起爆コード…

22 :
The word "nexenta" is derived from next + cento.
だから
ねくすてんた?
ねくすせんた?
ねぜんた?
ねくすえんた?
外国人さんはなんて発音しているのでしょうか?

23 :
α5をAHCIのSATAドライブにインスコしようとしたら、とちりやがった

24 :
>>23
どういうこと?

25 :
>>24
パーティションを設定するところにきて、無限ループに入った如く画面が乱れて、
それ以上何もできなかった。
linux共存を図ろうとしたので、予めfdiskでSolaris用にパーティションIDを設定して
用意はしておいたんだけどね

26 :
そういうの「とちる」って言うのか。

27 :
>>26
無知無学はR。wikipedia で調べて来い糞が!!

28 :
きりんさんのすれっどで
きたないことばをつかわないで〜

29 :
>>22
外人は「ネクセンタ」と言ってたよ

30 :
俺は「ネグゼンタ」と読んでるよ

31 :
Alpha6入れてみようと思いたっていざインストール!してみました
インスト後、あれ?GRUBメニュー出てこないじゃん?
あれれ?いぬ用のMBRからGRUBシェルに入って覗こうとしても
パーティションが見つからないと。あれれれ?
事前にSOLARIS用にパーティション切っておくものなのコレ?
インスコの途中で聞かれたからHDDのうち一台は
これ用に全部割り当ててみたのに、違うのかな?
教えてエロい人

32 :
アンダーバー入力できてる奴いるか?

33 :
(・д・) <アンダーバァアーバ

34 :
debianっていうかubuntuじゃね?

35 :
アンダーカバーコップス

36 :
開発止まっちゃった?

37 :
>>36
http://www.gnusolaris.org/phpbb/viewtopic.php?t=6377

38 :
NexentaってLinux用のソフトを使うんですか? それともSolaris用?
実装による?

39 :
日本語でおk

40 :
ちょww
いわれると思ったけどうまく質問できない。。
カーネルがSolarisでユーザランドがGNU/Ubuntuなので
Linux用のソフトも動くかも、と淡い期待を抱いています。
例えば、Firefoxをダウンロードして使う場合(パッケージが既にありますが)
Solaris用を使えばいいんですよね?

41 :
試してみりゃいいじゃん。

42 :
Nexentaをまだインストールしてないんです。
もうすぐインストールする予定のマシンが手に入るんですが
OSをSolaris、FreeBSD、Nexenta、Ubuntuの四つのどれかにしようと思っていて
Nexentaで行くことにした場合パッケージに無いソフトとのインストールをする場合に
どんな問題が起こるかな、と。

43 :
インストールして試せばいいじゃん。

44 :
>>42
おまいさんzfsスレの人かな?
これってNexentaって、まだアルファーバージョンなんだけど
業務でつかうつもりなん?

45 :
まずUNIXの基本的な知識を身に付けてから使った方が良いかと

46 :
ありがとうございます。こんな夜中にレスが素早くつくことにびっくり。
>>43
事前に調べきれなかったらインストールして試します。
なのでもう少し調べてみます。
>>44
そうです。マルチポストにならないよう質問項目を絞るようにしてます。
業務ではなくて個人ユースなのである程度無茶ができますが、
これでうまくいくなら業務で使うことになると思います。
>>45
そうですよね、もっと精進します。
いままでLinuxとMacOS X以外のUNIX(MacがUNIXかどうかは置いといて)を
使ったことが無いので、カーネルとそれ以外が分かれているということを
うまく理解できてません。。

47 :
>>46
素直にUbuntu使った方が、時間の無駄しないと思うぞ。
余談だけどOSXをUNIX扱いしてるけどmacport(旧darwinport)は使った事は
あるのかな?そんでOSXのX11を日本語化の構築とかできる?

48 :
まだ発売していないけどMac OS X Leopardは
The Open Groupの認証を受けたUNIXだぜ。
だからUNIXになるのはもう少し先だな。

49 :
>>47
今回Nexentaを検討したのはzfsが使える(しかもブートまで!)からというのが大きいので
Ubuntuに後ろ髪を引かれつつ検討対象から外れました。
もともと10年以上Linux触ってたので(未だにタコですが)初期の環境を
日本語化したことは何度かあります。最近はほとんどないですが。
Macでも多分できると思いますが、terminalさえあれば満足してしまうので
macportは使ってません。X11だけは一応インストールしてあります。
結局、サーバ環境としての安定性を第一に考え、今回はSolarisを使うことにしました。
皆様、いろいろ相談に乗って頂きありがとうございました。

50 :
>>48
じゃぁ新・mac板は閉鎖してもらおう

51 :
Alpha 7のままで放置かー
このままFadeOutしちゃうのかな?

52 :
もっと注目されてもいい気がするんだけどなー。
Solaris kernel + Linux の package system
って最強じゃない?

53 :
のびねー

54 :
ふらりと立ち寄った俺が登場!
Debian狂愛でBSDでつまずいた僕でも使えますか?

55 :
おとなしくDebian使っとけや

56 :
>>54
つPC-BSD

57 :
カーネルがそらりすじゃあなw

58 :
Linuxよりはましだけど

59 :
Indiana はどーですか?

60 :
パッと見はよさげ。
今後に期待。

61 :
まじでAlpha7でフェードアウトしそうな感じだな('A`)

62 :
腐ってやがる、早過ぎたんだ

63 :
R上げ

64 :
APT repository: 12222

65 :
期待はずれ

66 :
http://www.gnusolaris.org/
行方不明、鯖消失。(´・ω・`)

67 :
http://www.nexenta.org/os
に飛ばされたが?

68 :
>>67
この数時間の間にそうなったみたいだな。
>>66の時点では確かに行方不明だったwwwwww

69 :
一言多い

70 :
あいかわらずAlpha7

71 :
永遠のAlphaか
って書こうとしたら「胃炎のAlpha」とtypoった
ふふふふ。俺キモい。

72 :
NexentaCorePlatform1.0RC3というのが出てたので、インストールしてみた。
Xwindowのグレーの画面が出るとこまでなんとかいったけど、その先どうすれば・・・。
今後に期待。

73 :
今みたらRC5だった。一応開発続いてるみたい。

74 :
ついに1.0リリース!!! いやマジで。

75 :
ほんとだ。オメ
日本語環境つく予定はあるのかな。ないだろうな・・・

76 :
イラネーヨ

77 :
indianaの話題はここでいいの?
PR2出たからさ。

78 :
別スレ立てとけ

79 :
リリースされて一週間も気づかなかった
DLしたいけど鯖が???

80 :
http://www.nexenta.org/os
から行けました.失礼しました.

81 :
おお、まじでリリースされてる。
インストールしてみよう。

82 :
glib2のsource packageがないのはなぜ?

83 :
ちっとも盛り上がらんな
やっぱDebianプロジェクトは何をやっても中途半端

84 :
Debianプロジェクトぢゃねぇよ

85 :
Indianaでいいじゃん

86 :
>>85
わかってきた。
Nexentaは、Debian系のカーネルをSolarisにしようとしたもの?
Indianaは、Solarisの一部をLinuxっぽくしたもの?
Indiana、案外、ただのSolarisですがね。
Solaris使いとしては、むしろ馴染みやすくてホットしてたり・・・。

87 :
>>86
NexentaはUbuntuのカーネルをsolarisに入れ替えたようなもの。

88 :
>>87
なるほど・・・
やっぱそうなのですが。
UbuntuもDebianも触ったことしかないのでいまいち評価が出来ないでいた。

89 :
こっち、全く書き込み無いね。
Solaris好きはSolarisかOpenSolarisかSXCE使うし、
Debianが好きな人で、Solarisカーネルを評価してる人は、
日本にはあんまりいなそうだもんなあ。。。

90 :
openSolarisの完成度が上がってきたからね。日本語化ちゃんととされてるし。

91 :
Nexenta Hackathon (with bounties) starts Jan 23rd.
http://www.nexenta.org/os/Hackathon

92 :
>>90
OSがUbuntu並にIntel Macに対応してくれれば言う事なすなんだが・・・

93 :
こっちは完全オープンソース?
OpenSolarisはオープンソースをうたうくせにATOKなんかのバイナリがくっついてくるから嫌になった。
潔癖性だし、OpenBSD使えばいいのも分かってる。
でもやっぱりSolarisは捨てられない……。

94 :
オープンなのはイメージだけだ
好きなの使え

95 :
>>93
潔癖性やめれ
身体に悪い

96 :
オープンソースって何かね?

97 :
ATOKって商品のほうのSolarisだけじゃなくてOpenSolarisにもついてるの?
だったらFreeBSDから乗り換え考えるんだが。

98 :
OpenSolarisにはATOKはついてこないって。
ATOKがついてくるのはSolaris10、商用版だけじゃなくて無料版のSoralis10にもATOKはついてくる。

99 :
商用版と無料版と分かれてるのか?初めて知った

100 :
>>96
http://www.opensource.org/docs/osd

101 :
Nexenta Core Platform 2.0 RC1
Release: 2009.04.01
OpenSolaris kernel build 104
Ubuntu 8.04 LTS repository

102 :
Nexenta Core Platform 2.0
2009.05.25


103 :
userland が GNU tools なのは邪悪だと思う

104 :
StormOSが正式リリースされたら独立スレ立てるよ

105 :
Nexentaの比較表(日本語)発見しました。
http://www.cmsinc.co.jp/products/nexentastor.html
個人情報入力は面倒なのでやめてほしいね!

106 :
StorでほくほくZFS使う→4T以上欲しくなる→Core2入れてみる→CLIコマンド覚える→Core3入れてみる→dedupすげええええ
ということで非常にいい感じのバックアップNASが出来たw
dev版のStorでやれる程度ちょっと調べたらCoreのCLIで出来る感触。もちろんGUIほしいけどね。
あぁあれだ、inst先が全容量ミラーになるのはなんとかならんのか

107 :
ageますね
あと、Nexentamanかっけぇw
http://www.nexenta.org/TAoNM/01/1.html

108 :
インスコ手順とか
ttp://www.yislab.com/nexenta.html
あと、自宅鯖板にもNexentaスレあるんだね

109 :
自宅サーバ板なんて存在今知った。
http://hibari.2ch.net/test/read.cgi/mysv/1282750776/l50

110 :
まだ使ってる人いる?

111 :
ubuntuでお腹いっぱいです。
Unixの本流がLinuxになってしまったから、SolarisもBSDも人気が出ないことは避けられない。

112 :
OSは、品質とか機能じゃなくて、人気で選ぶモノになってしまった

113 :
品質や機能より、問題が出ない(形でバグがあっても回避して運用できる)ことが
重視されるようになったからかな。
その場合はたくさん人柱が立って問題が出ないような使い方の情報が出回ってる方が
うれしくなる。あまり利用者がいない状態で「品質がいい」という主張が、逆に
「あまりユーザいないから秘孔突かれてないだけじゃね?」と思われる時代に
なったと。

114 :
その「品質がいい」というところに客観的なデータが示せていない。
主観で語るようになったUnixユーザーの悲哀が感じられる。

115 :
議論を煮詰める中で「じゃあそれを裏付ける具体的データを出して下さい」
という話になってデータを出すならわかるけど、ちょっと話が出ただけの段階で
いきなりデータをずらずら並べるというのも唐突だろう。
元々 Nexenta は OpenSolaris 系 distro の中でも傍流だったのは
否めないし、distro としての OpenSolaris がもう今後は出てこないという
ことになってからは OpenIndiana が主流になったっぽいからねぇ。
とりあえず、NexentaStor のユーザとして Korea Telecom がいるらしいけど。
http://nexenta.com/corp/blog/2010/10/04/cloud-and-scaling-and-nexentastor/

116 :
もったいぶらずにデータをもっているのなら出しなさい。

117 :
ファイルシステムの比較でもすればいいのか?
Nexenta OS がなぜ Solaris カーネル + Ubuntu ユーザランドという構成に
なっているか考えると、ユーザランドの使い勝手は Linux 系 distro の方が
優れる面があるのも否定できない、一方カーネル特にファイルシステム=ZFS
については Solaris が優れている(Nexenta はストレージソリューションの
ベンダーなので、特にこの部分に関心を持っていたと思われる)ためだろうう。
Linux 上の Btrfs もがんばって開発してるんだろうが、現状ではまだまだ
production 用途でガンガン使うには不安が払拭できない状態だろう。
というと「データを出せ」と言われるかも知れないが、ならば Btrfs を
production 用途でガンガン使っている事例があるなら教えてほしい。

118 :
>>117
つか、btrfsってまだRAID1相当までしか実装されてないからね。
仮に安定性があってもストレージサーバとしてわざわざ採用する意義がないし。

119 :
btrfsがガンガン使われているという証拠もないし、使われていないという証拠もない。
どっちを信じるかはあなた次第

120 :
フリーソフトの悪口を書いてはいけないというのがIT業界の
暗黙のしきたりなので何が本当かは永久に謎なのだ。

121 :
人気があってそこそこ品質の悪いソフトが儲かる。だって、保守が売れるし、調査費用がでるし、工数がかかるから、人件費も貰える。

122 :
○racleの話ですねw

123 :
よくわかってるね。保守無しじゃ怖くて使えないよね。

124 :
ほうらね、品質はそこそこ悪い方がソフトは儲かるっていうことについてはみんな
黙っちゃうでしょ。業界のふれて欲しくない真実なんだよなあ。

125 :
完成度上がるとOSって死ぬよね会社ごと
ユーザが枯れたものをありがたがらないというか

126 :
枯れた物しか有難がられなくなると…、ではなくて?

127 :
枯れたOSはパッチが必要ないので保守費を払う必要し。
フリーソフトなら無料なので尚可。

128 :
NexentaStorを試そうとvmwareのイメージを落とした。
しかしシステム部分に4GBもあって、さらにsyspoolが大きいせいでか、apt-get upgrade出来ない。
それなら普通のNexentaでいいのではと思い始めたが、間違ってる?
NexentaStorを自分で入れたらいいのか?

129 :
updateの間違いではという突っ込みはなしだ…
ディスクスペースが足りないと言われる。

130 :
そもそもNexentaStorを試す理由は?

131 :
>>130
ファイルサーバー専用だから、わざわざシステムをアップデートする必要はないと言いたいの?でも、他のパッケージを新規で入れたいわけではないし、最初から入っているコア部分のアップデートがupgrade出来ないのは何なの?と思いましたよ。syspoolがデカ過ぎ?

132 :
>>131
>ファイルサーバー専用だから、わざわざシステムをアップデートする必要はないと言いたいの?
誰がそんな事を言ったんだ(w
むしろファイルサーバー専用という事が聞きたかっただけだ。EONがお勧めだよ。
よくわからんが、NexentaStorはUSBメモリでも快適に動作したが、NexentaをUSBメモリに入れたらかなり動作が重くて使い物にならなかった。

133 :
apt-cloneは?

134 :
>>132
ありがとう。EONは知らなかったので調べて試してみる。

135 :
>>134
ただしEONは最小限OpenSoarisみたいなイメージ。
NexentaStorみたいなかっこいいGUIは無い。

136 :
>>89
Debian, Ubuntuが広く使われてるから、そのユーザーの中でzfsを使いたい人には最高だと思うんだけどね。Solarisは2.6しか知らんが、パッチどころか、zipだったかな、解凍ソフトを自分でインストールしてこりゃタイヘンだと思ったな…

137 :
せめてUbuntu 10.04ベースになってくれればなぁ。

138 :
>>137
同意しま〜すw

139 :
職場で取引のあるベンダーにNexentaを推しているんだが、営業もSEも食いついて来ないね。
KernelがSolarisって話した時点で思考停止するのか興味が失せたような顔になるw

140 :
>>139
kernelとか言わなきゃいいんじゃね?

141 :
Nexenta OSって名前じゃなく、debian GNU/kSolarisって名前なら
それだけで世間の食いつきが千倍はよくなってた筈。

142 :
そういえばDebian GNU/kFreeBSDって出来たんだね。中のZFSも15から早晩18, 22と追いつくだろうし、そっちに惹かれるな…

143 :
kは何を意味してるの?

144 :
"k"ernel of FreeBSD

145 :
Ubuntu 12.04 GNU/kSolaris出たら乗り換えるのに。

146 :
じゃあ今までの Debian GNU/Linux は Debian GNU/kLinux ってこと?

147 :
まあそういうこと

148 :
>>141
つか、Nexentaはユーザランドが全然GNUじゃないじゃん

149 :
最早 Debian Ubuntu/kSolaris だな。

150 :
Debian Darwin/kMach

151 :
>>146
「GNU/Linux」と言ったときの「Linux」はカーネルとしての Linux のこと。
http://ja.wikipedia.org/wiki/GNU/Linux%E3%82%B7%E3%82%B9%E3%83%86%E3%83%A0

152 :
>>151 なるほど そもそも Linux の実体とはカーネルだけですからね

153 :
一点教えて欲しいのだけど、
以下のような構成でHDD1が壊れて再インストールした際に、
残りのディスクは一台ずつimportすれば復旧出来る認識であってる?
・HDD1(160GB/zfs root)
・HDD2(2TB/raidz)
・HDD3(2TB/raidz)
・HDD4(2TB/raidz)

154 :
>>153
1台ずつじゃなくて、プール名でのimportじゃねーの?

155 :
おお。pool指定だったのね。失礼。

156 :
nexenta-on-sourceつかって、自前コンパイルしたことある人いるかな?
NCP3.0.1のnexenta-on-sourceでコンパイルすると 3.0.0のバイナリが出来るっぽい。
最新のリポジトリからコンパイルしてみたりしてるんだけど、上手いことパッケージができない orz

157 :
Community Edition 3.0.5 が出てたんだね
http://www.nexentastor.org/news/17

158 :
>>151
>GNU/Linuxシステム(GNU/Linuxオペレーティングシステム、略してGNU/Linux)は、
>Linuxカーネルを中心にGNUプロジェクトによるソフトウェアなどを追加して一般のオペ
>レーティングシステム(OS)としての機能を持たせたものである。
どう読めばそんな解釈になるんだ?
GNUソフトとLinuxカーネルを組み合わせてOSとしてまとまった物をGNU/Linuxと呼ぶ。
「GNU/Linux」とわざわざ書いてるのに何でカーネルその物を指す事になるんだ馬鹿

159 :
どう読めばそんな解釈になるんだ?

160 :
GNU/Linuxという呼称はGNUの押し売りだから。
リーナスもじゃぁそれでいいよ、と言ってるだけ。
その決定に従わないといけない理由は無いし法的拘束力も持たない
カーネルがLinuxでGNUのツール類を含んでいてもGNU/Linuxと
名乗らず単にLinux OSとしてもなんら問題は無い。

161 :
GNU/Linuxって表記してる時点で***その表記中の***GNUはGNUツール群、LinuxはLinuxカーネルを表してる
ってことに変わり無いだろう。>>158

162 :
>>161
GNU/Linuxと表記してる時点でGNUツールとLinuxカーネルを使ってるオペレーティングシステム
uname -o
カーネルだけならLinux
uname -s
カーネルとカーネルのリリースバージョン
uname -sr
libcにGNU libc(glibc)を使う時のbinutilsとgccのtarget triplet
[cputype]-[foo]-[kernel api]-[gnu]
i686-pc-linux-gnu となる
これでlibcを構築すると[libc]/[kernel api]
glibcのソースに #define UNAME_SYSNAME "$uname_sysname" があり
この$uname_sysnameに "GNU/Linux" という値が渡される
newlibやuClibcやdietlibはsysnameはあるがuname_sysnameでunameをコールしないので
uname -o は unknown となる。
AndroidはLinuxじゃないと言い張ってるような奴がunix板にもいるとは驚きだ

163 :
>[cputype]-[foo]-[kernel api]-[gnu]
>i686-pc-linux-gnu となる
例えば i686-pc-linux-gnu となる
i686-foo-linux-gnu とすれば
gccはi686-foo-linux-gnu-gcc
--- 言葉足らずだった ---

164 :
GNU/LinuxのGNUとはlibcの事でlibcにglibc以外、カーネルをLinuxにして
上位アプリケーション層にGNUツールを多用してもlibcソースを弄らない限り
GNU/Linuxにはならない。

165 :
なんか精神に異常を来たしたやつがいるな

166 :
NexentaだとGNU/SunOSになるの?
Nextenta入れてないんで教えてちょんまげ

167 :
そう呼んでもいいんじゃね。

168 :
NexentaStor3.1リリースあげ

169 :
eucでコピーしてしまったファイル名の文字コードをutf-8に変換したいんですが
どうすればいいのでしょうか?
convmvとか追加できるリポジトリありますか?

170 :
いつになったら setup appliance upgrade でアップグレードできるようになるのー

171 :
ネタ投下
NexentaCoreで、ローカルHDDのStripeのシーケンシャルで1GB/s超えるの何台か試しててみた
(実際には10台構成で一番パフォーマンスと容量稼げれるの調べてた)
ちょっと長いので複数レスで
機器構成はこんな感じ
CPU Intel Xeon X3430
Motherborard SuperMicro X8SIA-F
Memory DDR3 ECC Reg 1066 8GB x2
SAS Card LSI SAS 9211-8i x2
HDD Hitachi HTS725032A9A364 x1 (システム)
HDD ST32000542AS x12 (データ)
HDD OCZ-VERTEX2 x1 (ZIL)
上段が書込で下段が読込

172 :
rzid0 10disk zil=none sync=standard
819212+0 records in
819212+0 records out
107375755264 bytes (107 GB) copied, 172.482 seconds, 623 MB/s
819212+0 records in
819212+0 records out
107375755264 bytes (107 GB) copied, 118.597 seconds, 905 MB/s
rzid0 10disk zil=on sync=standard
819212+0 records in
819212+0 records out
107375755264 bytes (107 GB) copied, 160.833 seconds, 668 MB/s
819212+0 records in
819212+0 records out
107375755264 bytes (107 GB) copied, 107.543 seconds, 998 MB/s
rzid0 10disk zil=on sync=always
819212+0 records in
819212+0 records out
107375755264 bytes (107 GB) copied, 651.956 seconds, 165 MB/s
819212+0 records in
819212+0 records out
107375755264 bytes (107 GB) copied, 101.959 seconds, 1.1 GB/s

173 :
rzid0 12disk zil=none sync=standard
107375755264 bytes (107 GB) copied, 135.414 seconds, 793 MB/s
107375755264 bytes (107 GB) copied, 111.699 seconds, 961 MB/s
rzid0 12disk zil=on sync=standard
107375755264 bytes (107 GB) copied, 137.056 seconds, 783 MB/s
107375755264 bytes (107 GB) copied, 94.5409 seconds, 1.1 GB/s
rzid0 12disk=on zil sync=always
107375755264 bytes (107 GB) copied, 650.655 seconds, 165 MB/s
107375755264 bytes (107 GB) copied, 89.1089 seconds, 1.2 GB/s
おまけ
rzid0 8disk zil=none sync=standard
107375755264 bytes (107 GB) copied, 200.98 seconds, 534 MB/s
107375755264 bytes (107 GB) copied, 157.039 seconds, 684 MB/s
rzid0 8disk zil=on sync=standard
107375755264 bytes (107 GB) copied, 206.048 seconds, 521 MB/s
107375755264 bytes (107 GB) copied, 144.314 seconds, 744 MB/s
rzid0 8disk zil=on sync=always
107375755264 bytes (107 GB) copied, 653.034 seconds, 164 MB/s
107375755264 bytes (107 GB) copied, 133.252 seconds, 806 MB/s

174 :
最初のベンチのが見にくくてごめん
基本インストール後のデフォルトの設定
echo zfs_txg_timeout/W0t2 | mdb -kw
だけ弄ってます
zilだけは本体のAHCIに繋いでますが、zpool組んでるHBAはLSIの方で分散するようにしてます
sync=alwaysのときはzilの速度で律速されちゃいますね。
dd if=/dev/zero of=/rzpool/test bs=128k count=hoge
でやった関係で、sandforceの圧縮が効いてる状態なので150MB/sくらいでてますが、
通常だと60MB/sくらいが限界です。
あと、10台でのRAIDZ2とか同様にベンチ取ってるんですが、見たい人います?

175 :

10本とかでRAIDZはどうなんだろうとは思ってたけど、stripeオンリーなら
ディスク増やせば増やす程速度あがるもんなのね。基本的な事しらんかった。
もしかしてパリティありでもディスク数に比例して速度はあがり続けるのかな?
>あと、10台でのRAIDZ2とか同様にベンチ取ってるんですが、見たい人います?
という事で期待age

176 :
>>175
パリティ有りでも速度上がりますよ。
recordsizeが128kでつくってるんですが、
RAIDZだと
データ2台+パリティ1台
データ4台+パリティ1台
データ8台+パリティ1台
って作りかたした方が良いみたいです。
RAIDZ2だとパリティ2台・RAIDZ3だとパリティ3台
Sunのブログにも書いてありました。
国内だと意外とこれ気にしてないBlogの書き込みが多いのが・・・
少ない台数での計測はしてないので、またやってみようかと。
個人で普通に使われてる方の7台くらいまでのRAIDZ3とかあたりまで。
うちは、コストパフォーマンスと信頼性とパフォーマンスで10台のRAIDZ2で行こうと思ってますが。
って、ことで今回測ったのを全部上げときます。

177 :
改行減らしたのでちょっと見にくいかも
rzidz 9disk zil=none sync=standard
107375755264 bytes (107 GB) copied, 196.033 seconds, 548 MB/s
107375755264 bytes (107 GB) copied, 156.482 seconds, 686 MB/s
rzidz 9disk zil=on sync=standard
107375755264 bytes (107 GB) copied, 202.732 seconds, 530 MB/s
107375755264 bytes (107 GB) copied, 130.954 seconds, 820 MB/s
rzidz 9disk zil=on sync=always
107375755264 bytes (107 GB) copied, 668.026 seconds, 161 MB/s
107375755264 bytes (107 GB) copied, 147.301 seconds, 729 MB/s
rzidz2 10disk zil=none sync=standard
107375755264 bytes (107 GB) copied, 194.102 seconds, 553 MB/s
107375755264 bytes (107 GB) copied, 153.917 seconds, 698 MB/s
rzidz2 10disk zil=on sync=standard
107375755264 bytes (107 GB) copied, 199.149 seconds, 539 MB/s
107375755264 bytes (107 GB) copied, 148.802 seconds, 722 MB/s
rzidz2 10disk zil=on sync=always
107375755264 bytes (107 GB) copied, 697.82 seconds, 154 MB/s
107375755264 bytes (107 GB) copied, 149.023 seconds, 721 MB/s
rzidz3 11disk zil=none sync=standard
107375755264 bytes (107 GB) copied, 200.391 seconds, 536 MB/s
107375755264 bytes (107 GB) copied, 131.458 seconds, 817 MB/s
rzidz3 11disk zil=on sync=standard
107375755264 bytes (107 GB) copied, 209.996 seconds, 511 MB/s
107375755264 bytes (107 GB) copied, 153.123 seconds, 701 MB/s
rzidz3 11disk zil=on sync=always
107375755264 bytes (107 GB) copied, 703.802 seconds, 153 MB/s
107375755264 bytes (107 GB) copied, 128.195 seconds, 838 MB/s

178 :

rzidz 5disk + stripe zil=none sync=standard
107375755264 bytes (107 GB) copied, 174.329 seconds, 616 MB/s
107375755264 bytes (107 GB) copied, 162.514 seconds, 661 MB/s
rzidz 5disk + stripe zil=on sync=standard
107375755264 bytes (107 GB) copied, 176.913 seconds, 607 MB/s
107375755264 bytes (107 GB) copied, 146.656 seconds, 732 MB/s
rzidz 5disk + stripe zil=on sync=always
107375755264 bytes (107 GB) copied, 669.213 seconds, 160 MB/s
107375755264 bytes (107 GB) copied, 149.27 seconds, 719 MB/s
rzidz2 6disk + stripe zil=none sync=standard
107375755264 bytes (107 GB) copied, 183.205 seconds, 586 MB/s
107375755264 bytes (107 GB) copied, 174.629 seconds, 615 MB/s
rzidz2 6disk + stripe zil=on sync=standard
107375755264 bytes (107 GB) copied, 186.545 seconds, 576 MB/s
107375755264 bytes (107 GB) copied, 139.735 seconds, 768 MB/s
rzidz2 6disk + stripe zil=on sync=always
107375755264 bytes (107 GB) copied, 679.659 seconds, 158 MB/s
107375755264 bytes (107 GB) copied, 137.285 seconds, 782 MB/s
あと、テストでRAIDZの3台/5台構成、RAIDZ2の4台/6台構成、RAIDZ3の5台/7台構成
mirrorストライプの2/4/6/8/10/12台構成・ストライプの2-9台構成測ってみます。
運用入っちゃうとこんなこと出来なくなるので、出来る間にやっておきますw

179 :
>>176-178
乙乙
raidz3で11diskとか凄いな。しかも結構な速度が出るもんだね。
ウチはEONでraidz5diskで組んでるけどwriteがCPUで頭打ちになっちゃってるな。
ただ読み込みも100MB/s超がやっとだから他にボトルネックが存在してるんだろうけど。

180 :
>>179
乙ありです。
RAIDZ3でもスピードは出るんですが、resilvereが鬼のように時間かかるようになりますのでご注意を。
2Tx10台のRAIDZ2使用率が80%超えてる状況で体験したときは、一週間くらいかかりましたから。
個人用ストレージのそんなに対してアクセスのない状況でそれですからね。
実際シーケンシャルだけだから、randomが絡むとどーなるかが測ってみたいんですが・・・
fioでやればできそうなんだけど、スキルが足らないのですよ orz
台数増えればパリティ計算の量が増えるので、CPUが速くないとパフォーマンス上がらないですね。
前はXeon X3430 ではなくて、Athlon X4 605e だったんですが、ここまでパフォーマンスでなかったです。
2Tx10台のRAIDZ2で300MB/sくらいだった気が。

181 :
>>180
ZFSも万能じゃないですね〜。まだ実用上resilveredした事なかったけど、そんなに時間かかるとは・・・
1GB程度のwriteでCore2Duo2.8GHzでもCPU負荷が100%に張り付くので、CPU食うな〜と思ってたら、
Athlon X4 605eでもパフォーマンス出ないとは・・・
次のファイルサーバ組む時はCPUはよく考えま〜す^^;

182 :
GPU統合のCPUならパリティ演算をGPUユニットにやらせると良さそうだ

183 :
>>181
resilvered中でも一応読込はパフォーマンス出ます
書き込みはzilを外だししてなかったら、多分すげー遅くなりますがw
resilveredは、業務で使うならraidz/raidz2の台数を少なめの5台とか6台にし、
そのグループ複数作りstripeしてやるのが良いんじゃないかーと思います。
容量稼ぎながらパフォーマンス出すとなるとですが。
Sunの資料や、個人的な経験則ですけど。
やっぱり、台数増えるとパリティ計算の量が増えるのと、パリティディスクの量が増えると
計算量が増えるので。
あと、今回のzfsのスピードですが、CPUだけの話でも無いとは思います。
Xeonの方はCPU直結のPCIe x16のスロットの方へHBA使っての接続だったりしますし。
XeonとAthlon系でのIO周りのアーキテクチャの違いもありそうですし。
今回自宅の環境のSANのアーキテクチャを変更してるんですが、1GbE->InfiniBand
なので帯域が一気に増えるから、なるべく速度だしたいんですよ。
iSCSIを使用するかSRPを使用するかのパフォーマンスのチェックもしたいですしw
そちらの環境のお話ですが、
C2Dの2.8G使用サーバへのWriteが1GBファイルを書き込みってことですかね?
ネットワーク越しか、ローカルでの話かがいまいちわからんのですが、100%張り付きは
どっか別にボトルネックがあるのではないかと。ローカルで測ってみてどのくらいでます?
参考までに、FreeBSDベースの物でZFSguruってソフトがあるんでsが、それのベンチ
を見てると、C2D E8400でraidzされてるののローカルディスクへのベンチで300MB/s
くらいでWrite出来てるっぽいです。
http://hardforum.com/showthread.php?t=1546137&page=4

184 :
>>182
確かにそれが実現されると大分CPU側に余裕が出来そうですね。
似たようなアプローチでzfs ver31の暗号化はSandyBridgeだとCPUで処理できるんでしたっけ?

185 :
ZFSのverあげたい時はOS再インストール?

186 :
>>183
>書き込みはzilを外だししてなかったら、多分すげー遅くなりますがw
な、なるほど。zilとか全然考えてなかったですが、これからNFS or iSCSIでVMイメージも格納しようと思ってるので検討しようかと。
>resilveredは、業務で使うならraidz/raidz2の台数を少なめの5台とか6台にし、
いまんとこ業務でそんな大容量ストレージを使う予定が無いですが、必要になったら参考にさせてもらいます〜
>Xeonの方はCPU直結のPCIe x16のスロットの方へHBA使っての接続だったりしますし。
>今回自宅の環境のSANのアーキテクチャを変更してるんですが、1GbE->InfiniBand
あ、あのどんだけ金かけてるんですか?(汗 回答不要
ウチの環境については、ちゃんと書いてなかったですがメインはセレ430、メモリ8GB、WDの2TB×5。
Express5800 110GeにメモリとHDD換装しただけの物ですね。もちろんセレ430がすんごいボトルネックでネットワーク越しにCrystalDiskMark使ってみた。
      Sequential Read :  51.228 MB/s
     Sequential Write :  38.991 MB/s
     Random Read 512KB :  47.131 MB/s
    Random Write 512KB :  40.691 MB/s
上でread100MB/s出るとか書いてたけど勘違いだったみたい。
リアルタイムで見てると、瞬間的に出る程度。
で、検証用でCore2DuoE7400(2.8GHz×2)、メモリ8GB、zpool用で寒村640GB×3を積んでるのがあるんだけど、
こっちでもIdleが0に張り付くって話でした。
しかしローカルと、ネットワーク越しの速度測ろうとして起動したら、何故かIdleが20前後のまま・・・
prstatで見てもCPU食ってる原因わからず。
時間のある時に試してみますわ〜

187 :
>>185
OS自体がサポートしているバージョンが、あげたいバージョンをサポートしてない、という意味ならyes

188 :
>>185
NexentaCoreでsyspoolのバージョン上げるって意味だったらNO
grubをバージョンアップ後にリブートするまでにローダをバージョンアップしないと駄目。
うちは、これに気づくまでえらいはまりました。
NexentaStorの方だったらどうなるんだろう?
今は使ってないのでよくわからないです。
どっちでも、外部公開用のプールなら問題なし。
>>187さんが答えてる前提だけど

189 :
>>186
NFS or iSCSIですと、多分ZIL Diskがないと逆にIOPS稼げないかと
iSCSIでの書き込み見てると細かいブロック単位でのIOが頻発するので、
zilが別になってないと、単純にDiskIOSPに引っ張られて遅くなります。
なので、小さいIOが速いSSDが推奨なんですわ
zil diskに分離しちゃうと上のベンチででてますけど、書き込み速度が
SSDの速度で律速されちゃいます。
逆に zil offって手段もありますけど、まだそのテストまでたどり着いてません
ネットワーク環境はヤフオクなりebayなりで安い中古・新品で揃えてるんで、
たぶん想像されてる金額とは桁が一つ以上違うと思いますw
サーバ関係は、ML110G6とかのいわゆる安鯖で組んでるので、そっちもそんなに
所詮、給料やっすいサラリーマンなんでw
セレ430 だと完全にCPUがボトルネックですねw
うちのベンチ中のintrstatですけど、複数CPUあると割り込みを各CPUにわけて
くれるのでCPUをQuadなりに変更をお勧めします
device | cpu0 %tim cpu1 %tim cpu2 %tim cpu3 %tim
-------------+------------------------------------------------------------
ahci#0 | 0 0.0 0 0.0 0 0.0 134 0.2
hermon#0 | 0 0.0 0 0.0 0 0.0 0 0.0
igb#0 | 0 0.0 1 0.0 1 0.0 0 0.0
mpt_sas#0 | 0 0.0 5334 4.1 0 0.0 0 0.0
mpt_sas#13 | 0 0.0 0 0.0 6534 4.9 0 0.0
C2Dの方は
https://defect.opensolaris.org/bz/show_bug.cgi?id=12799
の感じかなー?
/etc/power.confのcpupmをcpupm enable poll-modeへ変更して pmconfig実行してみるとどうでしょう?

190 :
この前のベンチの続き
(量があるのは勘弁してください)
raidほげ ほげdiskの何も付いてないのはzil diskなしのsync=standardです。
raid0 1disk
34359738368 bytes (34 GB) copied, 458.454 seconds, 74.9 MB/s
34359738368 bytes (34 GB) copied, 297.087 seconds, 116 MB/s
raid0 1disk sync=standard
34359738368 bytes (34 GB) copied, 463.082 seconds, 74.2 MB/s
34359738368 bytes (34 GB) copied, 297.507 seconds, 115 MB/s
raid0 1disk zil sync=always
34359738368 bytes (34 GB) copied, 471.431 seconds, 72.9 MB/s
34359738368 bytes (34 GB) copied, 296.483 seconds, 116 MB/s
raid0 2disk
34359738368 bytes (34 GB) copied, 233.72 seconds, 147 MB/s
34359738368 bytes (34 GB) copied, 151.109 seconds, 227 MB/s
raid0 2disk sync=standard
34359738368 bytes (34 GB) copied, 237.421 seconds, 145 MB/s
34359738368 bytes (34 GB) copied, 150.979 seconds, 228 MB/s
raid0 2disk zil sync=always
34359738368 bytes (34 GB) copied, 249.648 seconds, 138 MB/s
34359738368 bytes (34 GB) copied, 148.128 seconds, 232 MB/s
raid0 3disk
34359738368 bytes (34 GB) copied, 152.936 seconds, 225 MB/s
34359738368 bytes (34 GB) copied, 100.948 seconds, 340 MB/s
raid0 3disk sync=standard
34359738368 bytes (34 GB) copied, 154.478 seconds, 222 MB/s
34359738368 bytes (34 GB) copied, 101.407 seconds, 339 MB/s
raid0 3disk zil sync=always
34359738368 bytes (34 GB) copied, 208.019 seconds, 165 MB/s
34359738368 bytes (34 GB) copied, 98.7654 seconds, 348 MB/s

191 :
raid0 4disk
34359738368 bytes (34 GB) copied, 114.403 seconds, 300 MB/s
34359738368 bytes (34 GB) copied, 76.7184 seconds, 448 MB/s
raid0 4disk sync=standard
34359738368 bytes (34 GB) copied, 120.013 seconds, 286 MB/s
34359738368 bytes (34 GB) copied, 77.2663 seconds, 445 MB/s
raid0 4disk zil sync=always
34359738368 bytes (34 GB) copied, 207.679 seconds, 165 MB/s
34359738368 bytes (34 GB) copied, 74.1959 seconds, 463 MB/s
raid0 5disk
34359738368 bytes (34 GB) copied, 99.9385 seconds, 344 MB/s
34359738368 bytes (34 GB) copied, 63.9826 seconds, 537 MB/s
raid0 5disk sync=standard
34359738368 bytes (34 GB) copied, 101.852 seconds, 337 MB/s
34359738368 bytes (34 GB) copied, 64.6448 seconds, 532 MB/s
raid0 5disk zil sync=always
34359738368 bytes (34 GB) copied, 207.193 seconds, 166 MB/s
34359738368 bytes (34 GB) copied, 62.2817 seconds, 552 MB/s
raid0 6disk
34359738368 bytes (34 GB) copied, 81.4244 seconds, 422 MB/s
34359738368 bytes (34 GB) copied, 55.0418 seconds, 624 MB/s
raid0 6disk sync=standard
34359738368 bytes (34 GB) copied, 84.7693 seconds, 405 MB/s
34359738368 bytes (34 GB) copied, 54.275 seconds, 633 MB/s
raid0 6disk zil sync=always
34359738368 bytes (34 GB) copied, 207.767 seconds, 165 MB/s
34359738368 bytes (34 GB) copied, 52.2964 seconds, 657 MB/s

192 :
raid0 7disk
34359738368 bytes (34 GB) copied, 72.3546 seconds, 475 MB/s
34359738368 bytes (34 GB) copied, 47.5575 seconds, 722 MB/s
raid0 7disk sync=standard
34359738368 bytes (34 GB) copied, 73.1588 seconds, 470 MB/s
34359738368 bytes (34 GB) copied, 47.1805 seconds, 728 MB/s
raid0 7disk zil sync=always
34359738368 bytes (34 GB) copied, 206.957 seconds, 166 MB/s
34359738368 bytes (34 GB) copied, 44.9982 seconds, 764 MB/s
raid0 8disk
34359738368 bytes (34 GB) copied, 63.6645 seconds, 540 MB/s
34359738368 bytes (34 GB) copied, 42.4252 seconds, 810 MB/s
raid0 8disk zil sync=standard
34359738368 bytes (34 GB) copied, 63.5911 seconds, 540 MB/s
34359738368 bytes (34 GB) copied, 42.2853 seconds, 813 MB/s
raid0 8disk zil sync=always
34359738368 bytes (34 GB) copied, 207.937 seconds, 165 MB/s
34359738368 bytes (34 GB) copied, 40.0296 seconds, 858 MB/s
raid0 9disk
34359738368 bytes (34 GB) copied, 56.2284 seconds, 611 MB/s
34359738368 bytes (34 GB) copied, 38.4057 seconds, 895 MB/s
raid0 9disk zil sync=standard
34359738368 bytes (34 GB) copied, 56.7143 seconds, 606 MB/s
34359738368 bytes (34 GB) copied, 37.5948 seconds, 914 MB/s
raid0 9disk zil sync=always
34359738368 bytes (34 GB) copied, 207.622 seconds, 165 MB/s
34359738368 bytes (34 GB) copied, 35.6792 seconds, 963 MB/s

193 :
raid0 10disk sync=standard
34359738368 bytes (34 GB) copied, 49.5412 seconds, 694 MB/s
34359738368 bytes (34 GB) copied, 35.3997 seconds, 971 MB/s
raid0 10disk zil sync=standard
34359738368 bytes (34 GB) copied, 50.1924 seconds, 685 MB/s
34359738368 bytes (34 GB) copied, 35.551 seconds, 966 MB/s
raid0 10disk zil sync=always
34359738368 bytes (34 GB) copied, 207.413 seconds, 166 MB/s
34359738368 bytes (34 GB) copied, 32.6684 seconds, 1.1 GB/s
raid0 11disk sync=standard
34359738368 bytes (34 GB) copied, 45.0803 seconds, 762 MB/s
34359738368 bytes (34 GB) copied, 32.3663 seconds, 1.1 GB/s
raid0 11disk zil sync=standard
34359738368 bytes (34 GB) copied, 45.9531 seconds, 748 MB/s
34359738368 bytes (34 GB) copied, 31.5008 seconds, 1.1 GB/s
raid0 11disk zil sync=always
34359738368 bytes (34 GB) copied, 207.854 seconds, 165 MB/s
34359738368 bytes (34 GB) copied, 29.9955 seconds, 1.1 GB/s
raid0 12disk sync=standard
34359738368 bytes (34 GB) copied, 41.6123 seconds, 826 MB/s
34359738368 bytes (34 GB) copied, 31.4201 seconds, 1.1 GB/s
raid0 12disk zil sync=standard
34359738368 bytes (34 GB) copied, 42.2312 seconds, 814 MB/s
34359738368 bytes (34 GB) copied, 29.9809 seconds, 1.1 GB/s
raid0 12disk zil sync=always
34359738368 bytes (34 GB) copied, 207.171 seconds, 166 MB/s
34359738368 bytes (34 GB) copied, 28.2279 seconds, 1.2 GB/s

194 :
貼り付けてとんでもない量になることに気がついたので、アップローダに上げました。
興味ある方はそちらから落としてください。
一部重複してる部分があります。
http://www1.axfc.net/uploader/File/so/69008

195 :
う〜ん、syspoolがディスク全量食っちゃうのは何とかならんのかな>インストーラー
ディスク2台にミラー構成でinst出来るのはよいのだが、せめてパーティション切って欲しい。
そんな大量にディスク載っけられるわけでも無し。

196 :
ZILをSSDに設定する方法を教えて下さい。
先週触り始めたばかりです。あとパフォーマンス上こういう点に注意しろみたいなのがあったら
教えてください。

197 :
>>195
パーティション切れるようにって要望が上がってたような。
たしかに、1Disk1パーティションは無駄になっちゃう容量が大きくて嫌よね。
>>196
NexentaCoreかStoreか解らないけど、Coreの方なら
# zpool add <pool名> log <ssd device>
の指定で行けるかと。
Storeの方は、今環境ないのでちょっとすぐには解らないな。
前にSotreを使ってたときは、特に悩む事なくWebUIから設定した気がする。
パフォーマンス的なのは、どういう用途で使うかによってチューニング変ってくるから
具体的な構成書くと良いと思う。
ただ、使ってる感じチューニングしなくても、他のSolarisOSのものに比べてもスピード
でてるから、あんまり弄らなくていいと思う。

198 :
>197
ありがとうございます。Storの方です。キャッシュでSSDに組み込むというは見つけたんですが。
もう少し探してみます。
StorからCoreに移行したのはGUIよりCUIってことでしょうか?

199 :
>>198
あー、もしかしてzfs触るのは初めてかな?
log -> ZIL (書込キャッシュ)
cache -> L2ARC (読込キャッシュ)
なので、用語知らなかったら解らないかも。
マニュアルで画面確認したら、Volumeの作成の画面とかにある、
Add to log >>
ってボタンがZILの追加です。
Stor辞めたのは、StorがInfiniBandのサポートしてなかった為ですね。
WebUIがあっても設定出来なければ意味ないので。
あとは、元々Debian使ってるので単純に自分で解りやすかったってのもあります。

200 :
>>197
StorはOSやOIより何もしなくてもパフォーマンス出るよね
どの辺いじってあるのか差分取ってみたいけど時間無いわ
Storもadminでsshから入ればdebianそのものだと思うんだがStorだと出来ないこととかあるっけ?
ま構成をいじりすぎるとweb UIとずれが生じるけども。

201 :
>>200
Storだけじゃなくて、Coreもパフォーマンスでてるのよね。
Coreと他の比べたけど、zfs関連のパラメータの違いが有ったのはSolaris 11 EAだけだった。
InfiniBandのSRPの管理とかがweb UIからできなった。
Web UIはSRP以外はいけるんだけどねー。FCとかiSCSIとか
結局手作業になるので、うちはNexentaCore + napp-itでおちついた

202 :
>>201
なるほ
そうなのか、なんぞチューニングパラメータかと思ったが、カーネル部分でいじってあるのかな
ぶっちゃけOIが出るまでOSよりよほどメンテされてた感があるので細部に手が入ってるのかも

203 :
Nexentastor+iSCSI
Fedoraからマウントしてベンチ取ってみた(4k random write)
(Disk statsに複数あるのはmultipathだから)
fio --filename=/store/benchmark/benchfio -rw=randwrite -bs=4k -size=5G -numjobs=4 -runtime=10 -group_reporting -name=file1
file1: (g=0): rw=randwrite, bs=4K-4K/4K-4K, ioengine=sync, iodepth=1
...
file1: (g=0): rw=randwrite, bs=4K-4K/4K-4K, ioengine=sync, iodepth=1
fio 1.55
Starting 4 processes
file1: Laying out IO file(s) (1 file(s) / 5120MB)
Jobs: 4 (f=4): [wwww] [100.0% done] [0K/419.8M /s] [0 /105K iops] [eta 00m:00s]
file1: (groupid=0, jobs=4): err= 0: pid=10719
write: io=3978.5MB, bw=407349KB/s, iops=101837 , runt= 10001msec
clat (usec): min=4 , max=600085 , avg=36.50, stdev=729.01
lat (usec): min=4 , max=600085 , avg=36.59, stdev=729.01
bw (KB/s) : min= 447, max=230968, per=26.01%, avg=105959.17, stdev=26963.27
cpu : usr=3.02%, sys=43.23%, ctx=884074, majf=0, minf=107
IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
issued r/w/d: total=0/1018475/0, short=0/0/0
lat (usec): 10=8.55%, 20=85.36%, 50=5.84%, 100=0.12%, 250=0.03%
lat (usec): 500=0.01%, 750=0.01%, 1000=0.01%
lat (msec): 2=0.01%, 4=0.01%, 10=0.03%, 20=0.03%, 50=0.02%
lat (msec): 100=0.01%, 250=0.01%, 500=0.01%, 750=0.01%


204 :
続き
Run status group 0 (all jobs):
WRITE: io=3978.5MB, aggrb=407349KB/s, minb=417125KB/s, maxb=417125KB/s, mint=10001msec, maxt=10001msec
Disk stats (read/write):
dm-5: ios=0/146166, merge=0/0, ticks=0/1516756, in_queue=1518373, util=60.93%, aggrios=0/83296, aggrmerge=0/65438, aggrticks=0/821096, aggrin_queue=821516, aggrutil=61.32%
dm-2: ios=0/83296, merge=0/65438, ticks=0/821096, in_queue=821516, util=61.32%, aggrios=0/20824, aggrmerge=0/0, aggrticks=0/200813, aggrin_queue=200917, aggrutil=22.44%
sdc: ios=1/20665, merge=0/0, ticks=0/200678, in_queue=201615, util=17.42%
sdf: ios=1/20632, merge=0/0, ticks=0/217119, in_queue=216605, util=22.44%
sdm: ios=0/21000, merge=0/0, ticks=0/209421, in_queue=209418, util=18.46%
sdl: ios=1/21000, merge=0/0, ticks=0/176034, in_queue=176030, util=15.81%

205 :
>>203
速いな〜、今の構成だとローカルでもうちはそんなに出ない。
NexetaStor側のハード構成とかpoolの構成はどんな感じなんでしょ?

206 :
poolは1TBx10(raidz2)+SSD(ZIL)
nmc@nexenta:/$ zpool list
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
dset 9.06T 878G 8.21T 9% 1.00x ONLINE -
CPU Xeon(R) CPU E31240 @ 3.30GH
Memory size: 16109 Megabytes
ストレージを集約しようとしてるので、少々オーバースペック気味になってます。

207 :
詳細ありがとうございます。
うちと似たような構成なんだけどこの差は何なんだろう。
Diskが10台のRaidZ2+ZILで、CPUがX3460とメモリが32GBくらいの差なんですが・・・。
環境の違いはvolblocksizeが4kなのとシンプロビジョニング使ってる所がネックなのか

208 :
sataカードはどこのですか? > お二方

209 :
>>208
自分はスピード出てない方ですが、LSIのLSI 9211-8i x2ですね。
安いカード探してるならIBMのM1015とかが同等品にできますよ。
http://lime-technology.com/forum/index.php?PHPSESSID=3ab9b2dd7ce6b95864de400b6829fb0f&topic=12767.msg124393#msg124393
この辺を参考にすれば簡単かと

210 :
>>209
LSI9211-8iのカードは初期状態でRAID対応Firmwareが入ってたと思うんですが
ZFS的には非RAIDなFirmwareに上書きした方がいいのでしょうか。
ちなみに私の環境
NEC GT110b
MEM : 1GB ECC x4
SATA1 : 160GB (GT110b標準) : NexentaStor C.E. 3.1.1
9211-8i : Port1-6 : TOSHIBA MK3265GSX 2.5/320GB/5400rpm
9211-8i : Port7 : ANS-9010 16GB (ZIL)
9211-8i : Port8 : 無し (L2ARC用に東芝SSDを予定)

211 :
>>210
うちはIT(HBA)Firmに書換はしてます。
RAIDファームではないのは以下のサイトの記述みたので。
http://ftp-admin.blogspot.com/2009/10/zfsraid.html
あと、海外のサイトとかでもIT Firmに書換してる事例が多かったのもあります。
そちらの環境のZILがANS-9010って速そうなんですが、実際どの位速度でてます?

212 :
9211-8iとIntelのオンボードSATAを混ぜてます。
ファームは書き換えてませんね。
他のマシンから9260-8iをひっぺがしてみようかと考えましたが、MSMとか使えませんよね。
9201-16iの方がいいかな。

213 :
カードは同じなんですね。
オンボードだけで sata6Gが6個もあるへんなITXがあったので使ってますが、
早くない。 3Tx3と最小構成なのでしょうがないかなあ。
3Tもう一本くらい買いたいけど今はムリだ〜〜〜〜〜

214 :
>>212
NexentaでもMSMは動きそうな気はしますが、必要な物入れるのが大変そうです。
楽なのは9201-16iだと思いますよ。もしくは、SASエクスパンダー入れるかですね。
>>213
J&WのAMDのITXですかね?
うちは拡張カード刺すつもりだったので、最初からATXにしました。
速くないって、どのくらいなんでしょ? ZIL用のSSD追加すると結構パフォーマンス
変りますよ−。

215 :
>214
asusの E35M1-I です。deluxなしのやつ。
速度はのちほど。
ZILは手持ちのを一度つけたんですが腐ってたみたいで時々挙動不審になるので
別のを注文中です。

216 :
CDMなので、比較にならないでしょうが、こんなもんです。
raidz1 WDC 3Tx3 syspoolは Crucial M4 128G 圧縮なし。 cacheなし、
-----------------------------------------------------------------------
CrystalDiskMark 3.0.1 x64 (C) 2007-2010 hiyohiyo
Crystal Dew World : http://crystalmark.info/
-----------------------------------------------------------------------
* MB/s = 1,000,000 byte/s [SATA/300 = 300,000,000 byte/s]
Sequential Read : 59.181 MB/s
Sequential Write : 65.651 MB/s
Random Read 512KB : 58.378 MB/s
Random Write 512KB : 39.962 MB/s
Random Read 4KB (QD=1) : 7.255 MB/s [ 1771.3 IOPS]
Random Write 4KB (QD=1) : 6.275 MB/s [ 1532.1 IOPS]
Random Read 4KB (QD=32) : 61.498 MB/s [ 15014.2 IOPS]
Random Write 4KB (QD=32) : 2.126 MB/s [ 519.1 IOPS]
Test : 1000 MB [X: 11.6% (631.1/5454.7 GB)] (x2)
Date : 2011/11/09 21:28:31
OS : Windows 7 SP1 [6.1 Build 7601] (x64)

217 :
214(207)ですが、うちでCDM取るとこんな感じです。
Nexentaとの接続がInfiniBandのうえにARC上に乗っかってるので、読込はこれくらいでます。
書込はスペックからするとおっっっそいっすね。これでもZILにPX-128M2P使ってるんですが。
-----------------------------------------------------------------------
CrystalDiskMark 3.0.1 x64 (C) 2007-2010 hiyohiyo
Crystal Dew World : http://crystalmark.info/
-----------------------------------------------------------------------
* MB/s = 1,000,000 byte/s [SATA/300 = 300,000,000 byte/s]
Sequential Read : 1154.275 MB/s
Sequential Write : 123.507 MB/s
Random Read 512KB : 968.508 MB/s
Random Write 512KB : 113.761 MB/s
Random Read 4KB (QD=1) : 66.573 MB/s [ 16253.1 IOPS]
Random Write 4KB (QD=1) : 17.650 MB/s [ 4309.0 IOPS]
Random Read 4KB (QD=32) : 899.634 MB/s [219637.1 IOPS]
Random Write 4KB (QD=32) : 36.698 MB/s [ 8959.5 IOPS]
Test : 1000 MB [D: 41.7% (4273.6/10239.9 GB)] (x5)
Date : 2011/11/10 0:26:01
OS : Windows Server 2008 R2 Datacenter Edition (Full installation) SP1 [6.1 Build 7601] (x64)

218 :
高速化したいときはZILとL2ARC?
どの程度速くなるものなんでしょう

219 :
>>218
用途はiSCSIのTargetでしょうか? 用途によって変ってくるので何とも言えないです。
ZILをSSDへ独立させてやると、SSDの最高書込速度の7〜8割くらいの速度はでます。
細かいブロックサイズ(4KBとか)になると、SSDのそのブロックサイズでの速度くらいまで落ちますが。
一般的な話だと、読込高速化(L2ARC)か書込高速化(ZILデバイス追加)って感じです。
通常、読込高速化はメモリを増やしまくればL2ARCはいらない気がしますけど。
DB系を動かすとなると、L2ARCがあった方が断然速くなると思います。
書込はZILをdisableにすると速くはなりますよ。
標準設定だと、ZILはstandard設定なのでそれをdisabledにするとパフォーマンスはでます。
電源断が起こると、下手すると巻き戻りが起こりますけど。
あと、自分が弄ってきた経験上は、最終的に書込むDiskの速度が遅いとZILのデバイスがいくら速くとも、
Diskの速度に引っ張られます。
現行のzilの動作ですけど、どーなってるんだろうと思って一回テストしてみたんですが、
sync = always (常にZILを書く)
sync = standard (同期書込時だけZILを書く)
sync = disabled (同期書込時もZILを書かない)
になってるっぽいです。

220 :
あら。スレあったんだ。前探したときは見つけられなかったんだが
NexentaStor community edition で 1Tx3 で RaidZ を組んで1年半。

NexentaStor は場違いであればお許しを。

221 :
>>220
全然スレ違いじゃないと思うよw
このスレはNexentaStor使ってる人の方が多いしw
Coreの方を使ってるのは、自分以外は誰かいるんだろうかw
そういや、illimosベースの4.0のベータテスターの募集してたけど、
誰か突撃した人はいるんだろうか?

222 :
FreeBSD の ZFS と nexenta の ZFS の性能的な違いとかって
両方使っている人がいたら感想を教えてもらえるとありがたいです

223 :
>>222
以前FreeBSD(ZFSGuru)とnexentaで比較やったんだけど、結果が残ってない orz
GbE+iSCSIのサーバとかで使うんだったら、差は殆どないかと。

224 :
Nexenta の一時バックアップを、VM 上に作った FreeBSD 9RC でとってみたが、
ZFS としての使い勝手は当たり前だが同等。
ハードが異なるので比較はできないがメモリをたっぷり割り当てている分には違いは出なかった
Nexenta のほうで、Dedup ON にしているとメモリが足りないと警告が出るが、
FreeBSD では出なかった。出ないからと言って、メモリが足りないわけではないだろうけど

225 :
FreeBSD側の枯れ具合いくらいなのかな,違いは.
当方は,えんたーぷらいずってわけでもないので
あとはスピードとかだったのだけどまあ
zfsにあまりスピードを求めるというのも違うきもする…

226 :
206です。
出勤前にCDMでベンチ取ってみました。
遅いですねえ、>>217にはとても及ばず。
1GbなiSCSIじゃこんなものですかね。
-----------------------------------------------------------------------
CrystalDiskMark 3.0.1 x64 (C) 2007-2010 hiyohiyo
Crystal Dew World : http://crystalmark.info/
-----------------------------------------------------------------------
* MB/s = 1,000,000 byte/s [SATA/300 = 300,000,000 byte/s]
Sequential Read : 175.891 MB/s
Sequential Write : 89.339 MB/s
Random Read 512KB : 125.079 MB/s
Random Write 512KB : 52.436 MB/s
Random Read 4KB (QD=1) : 7.264 MB/s [ 1773.4 IOPS]
Random Write 4KB (QD=1) : 9.104 MB/s [ 2222.6 IOPS]
Random Read 4KB (QD=32) : 165.056 MB/s [ 40296.8 IOPS]
Random Write 4KB (QD=32) : 23.892 MB/s [ 5833.0 IOPS]
Test : 1000 MB [D: 0.1% (0.1/100.0 GB)] (x5)
Date : 2011/11/21 5:36:02
OS : Windows Server 2008 R2 Enterprise Edition (Full installation) SP1 [6.1 Build 7601]

227 :
自分が使ってるNexentaCoreがEOLに orz
NexentaStorはEOLじゃないからそっち使ってる人は安心してねん。

228 :
時代はStormOSか...

229 :
まじ?そういう企業は信用できんなあ。

230 :
Coreは元々フリーで無保証って書いてたから仕方無い。
Ubuntuの8.04 Desktopベースだから、大元のサポートが今年の4月に切れてるしな。
iCoreへの移行で人手が足らないのもあるんだろうなー
NexentaStorのEEとCEはちゃんとサポートしてるから信用はして良いと思うが。

231 :
再インスコとか手間すぎるぜ・・・

232 :
>>231
DebianとかUbuntuみたいにアップグレードできるようにするみたいだから、再インスコまではしなくて良いと思うよ。

233 :
aptが404でこけるんだが、何があったんだ??

234 :
ComunityEdition も、今年に入ってから Upgrade に失敗するようになったな


235 :
ああ、潰れたから

236 :
あぁつぶれたのか。そうかそうか。じゃぁしょうがないね。> 235
ttp://www.nexentastor.org/boards/1/topics/4587
日本時間18日深夜に直った模様。

237 :
うちも直ったわ(当たり前だが
そしてupdateパッケージがあるな。rebootしたくねーんだがどうしようか

238 :
Coreはillumos+debianのIllumianになったみたいね

239 :
NexentaStorでiostat -EnしてもSerial Numberが全部空っぽなんだが、私だけ?

240 :
NexentaStor Version 3.1.3 Released: Download today

241 :
zfs+crossbow鯖を立てたくてOiかNexentaStor/Coreのどれかを検討中です。
zfsは問題ないとして、Nexentaのcrossbow対応状況ってどんなもんでしょ?

242 :
>>241
NexentaStorは、NASの専用なのでCrossbowは簡単には出来ないと思う。
元々Solaris系触った事あるならOIで、Debian系になれてるならillumianかな。
NexentaCoreはサポートが切れてるのでお勧めしない。
後継のillumianを使ったほうが良いと思う。

243 :
>>242
なるほどありがとうございます。illumian検討してみます。
myriの10GBase-cx4カードが思いがけず入手できそうで、
Crossbowで内部的に繋ぎこんでなんちゃって10GBaseスイッチにできないかな〜と

244 :
Nexentastor.orgでOpenStrageSummit記念の自作コンテスト開催中。10/25〆切
http://www.nexentastor.org/boards/12/topics/7912
公式ではなくてコミュニティの内輪イベントみたい。
自作PC晒しスレのノリなんだけど、自分は英語で文章書けないから無理ぽ。

245 :2012/10/30
3.1.3.5 release.
TOP カテ一覧 スレ一覧 2ch元 削除依頼
UNIXにしようかLinuxにしようか (468)
性善説のUNIXサーバVI (717)
プロフェッショナルがハッカー度を計ってくれるスレ (763)
■■■X11不要論■■■R4■■■ (336)
cygwinの教材化に関する研究 (408)
FreeBSDの最後を見届けるスレ (411)
--log9.info------------------
uim スレッド 8 (574)
Android総合 (200)
RAID総合スレッド No.5 (714)
サーバならやっぱりFreeBSDだよな (855)
ノートPCでLinux 7 (262)
【本家まで】TOMOYO Linux 0.0.3【もう一息】 (826)
Xの描画が一番速いグラフィックカードってどれ? (703)
【ubuntu】 NetWalker3【ARM】 (793)
僕らの3大ディストリビューションを決めるスレ (212)
こんなディストリビューションは嫌だ その3 (318)
SE (security enhanced) Linux (408)
ビルゲイツ「」←何言わせても勝ち組 (686)
適当にキーボード叩いてスッキリしよう! 3 (285)
プログラマーの持っている資格 (442)
東京コンピュータサービス(TCS) Ver.36 (331)
特定派遣がマネジメントスキル!? はぁ!? (698)
--log55.com------------------
【中国に謝るな】 #香港加油 したNBA中国に怒られ謝罪−米議員が猛反発
【細川たかし】テコンドー協会のドン金原会長を独占直撃 ヅラ疑惑に一発回答!!
【社会】神戸山口組系山健組の事務所付近で発砲、2人死亡 容疑者の弘道会傘下組織幹部(68)を逮捕
【体育会】「お前は俺の下僕だ」下級生に部員30人の前でわいせつ行為をさせ撮影、日体大柏高ラグビー部
【三重】内縁の妻の6歳の息子の背中蹴り腎臓破裂させる 33歳男逮捕…「言うことを聞かなかった」
【スーパー台風】最凶台風19号、東京直撃 死者8000人予測 ★2
【名古屋高裁】三つ子次男死なせた母 懲役3年6カ月の実刑が確定 上告せず
【台風19号】ラグビーW杯、日本-スコットランド戦を実施するか否かは当日13日の朝に判断。大会組織委員会