1read 100read
2012年3月プログラム104: 【GPGPU】くだすれCUDAスレ part5【NVIDIA】 (608) TOP カテ一覧 スレ一覧 2ch元 削除依頼
正規表現 Part9 (714)
C言語は関数ができなくても、理解可能か? (166)
Objective-C [ObjC part:7]; (133)
【コメント】doxygen【コンソメ】 (489)
【論理】Prolog【初心者】 (475)
【日本携帯】Mascot Capsule/Micro3D【標準】 (156)

【GPGPU】くだすれCUDAスレ part5【NVIDIA】


1 :11/08/23
このスレッドは、他のスレッドでは書き込めない超低レベル、
もしくは質問者自身何が何だが分からない質問を勇気を持って書き込むスレッドです。
CUDA使いが優しくコメントを返しますが、
お礼はCUDAの布教と初心者の救済をお願いします。
CUDA・HomePage
ttp://developer.nvidia.com/category/zone/cuda-zone
関連スレ
GPGPU#5
ttp://hibari.2ch.net/test/read.cgi/tech/1281876470/
前スレ
【GPGPU】くだすれCUDAスレ【NVIDIA】
ttp://pc12.2ch.net/test/read.cgi/tech/1206152032/
【GPGPU】くだすれCUDAスレ pert2【NVIDIA】
ttp://pc12.2ch.net/test/read.cgi/tech/1254997777/
【GPGPU】くだすれCUDAスレ pert3【NVIDIA】
ttp://hibari.2ch.net/test/read.cgi/tech/1271587710/
【GPGPU】くだすれCUDAスレ pert4【NVIDIA】
ttp://hibari.2ch.net/test/read.cgi/tech/1291467433/

2 :11/08/23
関連サイト
CUDA
http://www.nvidia.co.jp/object/cuda_home_new_jp.html
CUDAに触れてみる
http://chihara.naist.jp/people/STAFF/imura/computer/OpenGL/cuda1/disp_content
cudaさわってみた
http://gpgpu.jp/article/61432191.html
CUDA のインストール
http://blog.goo.ne.jp/sdpaninf/e/9533f75438b670a174af345f4a33bd51
NVIDIAの「GeForce 8800 GT(G92)」と次に控える64-bit GPUアーキテクチャ
http://pc.watch.impress.co.jp/docs/2007/1031/kaigai398.htm
CUDAを使う
http://tech.ckme.co.jp/cuda.shtml
NVIDIA CUDAを弄ってみた その2
http://dvd-r.sblo.jp/article/10422960.html
CUDAベンチ
http://wataco.air-nifty.com/syacho/2008/02/cuda_2044.html
KNOPPIX for CUDA
http://www.yasuoka.mech.keio.ac.jp/cuda/

3 :11/08/23
宣伝になっちゃうと難なので、一応分けて。いろいろ載っているサイト。
ttp://www.softek.co.jp/SPG/Pgi/TIPS/para_guide.html

4 :11/08/23
おい、pertだろ
まちがえんな

5 :11/08/23
>>2
個人blogのは情報古すぎなような…
「cudaさわってみた」はリンク切れだし。

6 :11/08/25
>>4
やっぱりCUDAやってる人は荒んでるんだな

7 :11/08/26
ほんとCUDAらないことで騒ぐよな

8 :11/08/26
ケンカするのはやめてCUDAさい><

9 :11/08/26
そうだよ。喧嘩はやめ…GeForんゲフォン

10 :11/08/26
まだスレが始まっTeslaいないのに

11 :11/08/27
ときに口論になるのもみんな自分の技術にそれだKeplerイドを持ってるってことだ。

12 :11/08/27
amazon.comで検索して出てくるCUDA本ってことごとく出版がずいぶん先か延期になったりするな
なんでだろ

13 :11/08/27
無効とは情報の登録ポリシーが違う…ような気がする。
それがAmazonのポリシーなのか出版社のポリシーなのかは知らないけれど。
多分出版社のサイト直接見た方が正確。

14 :11/08/27
cudaの本が必要、って訳でも無いが出版されるなら買ってしまうと思う

15 :11/08/31
4.0になってdeviceemuが使えんのだが、CUDA載せてないPCで動かす方法ない?

16 :11/09/01
3.2を使う。

17 :11/09/01
>>16 アホしかおらんのか

18 :11/09/01
>>17
現実的じゃないか。どうせemuで正確なエミュレーションができるわけじゃないし。

19 :11/09/01
>>17
4.0でdeviceemu使う方法なんてねーよ、ってことだよ。
言わせんな恥ずかしい

20 :11/09/01
>>15
Cuda x86

21 :11/09/01
理屈の上ではKnights Ferryでも動かせるのかな?

22 :11/09/01
ubuntu 11.04 tesla c2050 cuda sdk 4.0の環境でdoubleのアトミック演算が正しく動作しません
オプションは -arch=compute_20を指定してます。
本家のプログラミングガイドに書いてある、以下のコードを実行してます。
__device__ double atomicAdd(double* address, double val)
{
unsigned long long int* address_as_ull
                  = (unsigned long long int*)address;
unsigned long long int old = *address_as_ull, assumed;
do {
assumed = old;
old = atomicCAS(address_as_ull, assumed,
             __double_as_longlong(val + __longlong_as_double(assumed)));
} while (assumed != old);
return __longlong_as_double(old);
}
引数のadrees*には共有メモリのアドレスを渡してます。
一つのスレッドのみが共有メモリにアクセスする場合は正しく加算は行われますが、二つ以上のスレッドが衝突する場合は
正しく動作しません。printfで見てみたら、二つ目のスレッドがループを抜けれずに何度も共有メモリの値に
加算しているようでした。上の文をdouble→float,long long → int に書き換えた場合は正しく動作しました。
また、atomicCASのところを二つのprintf、
printf("%d %f %f\n",threadIdx.x,__longlong_as_double(assumed) ,__longlong_as_double(old));
ではさむとなぜか正しくループを抜け、正しくsharedメモリに値を書き込みます。
原因がわかる方、教えていただけないでしょうか。

23 :11/09/01
>>22の続きです
assumed oldの値をcpu側に持ってきて表示してみたら、
oldの値(atomicCASの返す値)とassumedの値が末尾の数ビットが
異なってました。50回ほどループしてやっとビットレベルで値が一致して
ループを抜けているようでした。その間に過剰に加算が行われていたようです。

24 :11/09/01
カードの計算が正しいかチェックするベンチマークってありませんか?
四則演算と√と三角関数とかを全ビットを演算器全部チェックしろと云う無茶ぶりがきた。
計算機が計算を間違うなんてありえないのに…

25 :11/09/01
Teslaの存在意義全否定デスカ

26 :11/09/01
>>24
過去スレを読むとわかってもらえると思うが、みんなそれを求めているんだ。
そのチェックにおける最先端はおそらく長崎大学。

27 :11/09/01
1スレッドの実行がどのコアかがわかる仕組みがどのような方法か分かればいいわけだよな
誰か調べてみろよ

28 :11/09/01
>>22,23
もしかしてブロック辺りのスレッド数が32以下なら動いたりする?

29 :11/09/01
>>27
何がしたいのか分からんがそれは簡単だ。

30 :11/09/01
>>29
コアと計算結果の表が出来上がればコア間の相違が分かるじゃん
やり方知ってるなら教えてください

31 :11/09/01
煽っても教えてやらん
29じゃないけどw

32 :11/09/02
NvidiaのCUDAをやろうと思い、Nvidiaのカードの刺さったマシンにFedoraを
入れてCUDAのためのNvidiaのドライバを入れて使ってみたが、OSのカーネル
のアップデートがあるたびに、コンソールが再起動時にブラックアウトした。
そのたびごとに、別のマシンからリモートログインをしてCUDAのための
Nvidiaのドライバを再インストールする必要があった。
CUDA3.xまではそれでなんとかなったが、現在のCUDA4.0になると、
幾らやっても駄目になってしまった。どうやらFedora15ではまともに
サポートされていないようなのだ。Nvidiaの提供しているCUDAのための
ドライバがインストール時におかしなメッセージが出てインストールが
出来ない。

33 :11/09/02
ここはおまえの日記帳だから好きに使いなさい

34 :11/09/02
>>28
ブロックあたりのスレッド数を32以下にして試してみましたが、
結果は変わらなかったです。

35 :11/09/02
>>23
とりあえず、プログラミングガイドのコードそのままだし、
実際アルゴリズム自体には問題ないから、
意図どおり動かないとしたら、ドライバかSDKのバグか
ハードの故障じゃね。
まあ、ここで詳細なバージョンとか晒してみたり、
PTXやアセンブリを貼ってみるのもいいけど、
本家のフォーラムで聞いてみたほうが早いんじゃね。

36 :11/09/05
長崎大の言う演算間違えって、具体的にどういう演算を間違えたのかの情報ってないの?
間違えますって情報だけ垂れ流して具体例出さんって、どういうことなんだべ。

37 :11/09/05
×演算間違え
○演算間違い

38 :11/09/07
CUDAを使用するプログラムで巨大なデータを扱いたいのですが、nvcc でのコンパイル時に
relocation truncated to fit: R_X86_64_32S against `.bss'
とエラーが出て完了しません。gcc ではデータ量制限を解除するのに-mcmodel=medium というオプションがあるようですが、nvcc でこれにあたるものはないでしょうか。

39 :11/09/07
巨大データってどれくらい?
CUDAは基本グローバルメモリ使用の制約があるから”巨大”は決して得意ではないのだけど

40 :11/09/07
>>39
今確認したところ、要素が数十万個の配列を使用していて、それらの合計は200MBほどです。
そのうち、実際にGPUに計算させるためGPUに渡すデータは50MB程度です。
上記のエラーメッセージでググったところ、データ量制限が問題だろうということだったのですが…それほど大きなデータでもないですよね。
なんなんでしょうこのエラー。
プログラミングに関してはまだ知識が浅いためvンカンプンなこと言ってたらすみません。

41 :11/09/07
どうせデータをソース中に書き込んでるんだろw

42 :11/09/07
>37
日本語の間違えより、長崎大の言ってる間違いの詳しい情報くれよぅ…。

43 :11/09/07
要素数が大きすぎるなら、mallocを使ってみたら?

44 :11/09/07
>40
配列は何次元?
CやC++だと配列は連続したメモリ領域と規定されてるので、
確保可能なメモリ量は物理メモリの絶対量ではなく、
アドレスを連続で確保できるメモリ量に規定されるよ。
例えば大きめの2次元配列を確保する場合は
double* pBuf = new double[row * column];
とするより
double** ppBuf = new (double*)[row];
for(int i = 0; i< row; ++i){
   ppBuf[i] = new double[column];
}
とかにしたほうがいいよ。

45 :11/09/07
ファイル読み込みで、cudaMallocHost(だったかな??)でメモリ確保すればいいじゃん

46 :11/09/07
>>43>>44
gccと同様にオプションでエラー回避できないかな…と思ったのですが、配列の取り方を変えるほうが良さそうですね。
特に>>44は知りませんでした。
ありがとうございました!

47 :11/09/07
良く分からんが、-Xcompiler -mcmodel=mediumじゃ駄目なん?
-Xlinkerも要るかもしれないが。

48 :11/09/08
>>44
普通はありえない。そんなことしたら、ポインタアクセスが一回余計に要るから遅くなるし、
キャッシュアウトしやすくなるから更に遅くなる。
まぁ、GPUに転送するのは1スライス分だけだろうからGPUに任せてCPUは暇こいていられるならいいかも知れんが。

49 :11/09/08
>>44
それは無い。
・メモリも無駄に消費
・アクセス性能がた落ち
・バグの温床になる
つーかC++ならvectorで初期化時に
サイズ指定したほうがいろいろ便利

50 :11/09/08
配列でやる場合、
配列の添え字がINT_MAXを越える大きさならそうするしかないと思うが・・

51 :11/09/08
キャッシャがアクセスがとドヤ顔されても・・・。
要素のデカイ配列が確保できんって話なわけだし。

52 :11/09/08
コンパイル時の話なのに
ヒープのフラグメンテーションの訳無いだろう。
nvccからgccに自由にオプション渡すやり方は
知らんが、最悪c(++)部分のコードを分割して
gccでコンパイルすりゃ良い。
仮にヒープのフラグメンテーションが酷い場合でも
>>44みたいなやり方は下策だよ。
素人におかしなやり方を覚えさせるだけ。
大きな配列確保する前に小さな物についてShrink-to-fitやればデフラグされるから
その後巨大配列を確保すれば良い。
特にGPGPUで巨大な配列扱うような用途なら
配列の配列なんて転送も困るだろうに。

53 :11/09/08
>大きな配列確保する前に小さな物についてShrink-to-fitやればデフラグされるから
>その後巨大配列を確保すれば良い。
コレ具体的にどんなコード書けばいいのん?

54 :11/09/09
メインの計算に必要な必要な小容量配列
保持用のポインタなりvectorの変数だけ始めに
ヒープに確保した後、メインの計算前の前処理をする。
この処理で、一時的なデータと最終的に使うデータの
ヒープ確保が入り乱れる所為でフラグメンテーションが発生する。
最終的に使うデータについて、大体処理した順番を守って
ひたすら同容量確保してはコピーを繰り返せば、
こういうデータは全て前方に圧縮されて配置されるようになる。

55 :11/09/09

まあスレ違いなんで他でやってよ。

56 :11/09/09
kernelへの引数に構造体は使えんの?
今やってみたらコンパイルでエラーになった

57 :11/09/09
あ、間違えてただ
構造体引数使えるべな

58 :11/09/14
>>15
http://code.google.com/p/gpuocelot/
Ocelot currently allows CUDA programs to be executed on NVIDIA GPUs, AMD GPUs, and x86-CPUs at full speed without recompilation.

59 :11/09/15
cuda4.0、gtx580で
Maximum dimension of a grid( 65535 , 65535 , 65535 )
ってなってるんですがz軸のブロックの取れる数は1じゃなくなったんですか?

60 :11/09/19
デバイス上の処理が長時間になる場合、途中経過を取得する方法ってないかな?
例えば100万回のモンテカルロを実行して、途中の10万回、20万回が済んだらその情報を取りたいんだけど…

61 :11/09/19
>>60
streamingでできないかな?

62 :11/09/19
streamingってなに?
SMのSじゃないよね?

63 :11/09/20
カーネル呼び出し時の<<<>>>の第3引数がstreamingの何かじゃなかったっけ?
俺は>>61を見てそういうのがあったなと思い出したレベルなので使い方は知らないけど。

64 :11/09/20
第3パラメータはsharedMemoryのサイズだよ。そこで指定しなくても使えるけど。

65 :11/09/21
ごめん第4引数だったみたい。それとAsync系関数がうんたらかんたら。

66 :11/09/22
あー、その辺だね。

67 :11/09/22
【トリップ検索】CUDA SHA-1 Tripper【GeForce】
http://hibari.2ch.net/test/read.cgi/software/1311428038/
すげえな

68 :11/09/23
個人でCUDAプログラミングやってうれしいのはその程度なのか?
と逆に不安になるんだが…

69 :11/09/23
世の中なんでも膨大なデータをいかに早く処理するかが勝負の世界に
なってきているから、CUDAプログラミングの旨味はいくらでもあるだろ。

70 :11/09/23
いつかやってみようと思って半年くらいこのスレROMってるが
いまだに開発環境のセッティングの仕方すら調べていない・・・

71 :11/09/24
>>68
>>67くらいのコード書ける?

72 :11/09/24
>>71
おれがそれくらいのコード書けるようになるころには、自ずとましな使い道が浮かんでくることだろう、
っていうこと?

73 :11/10/02
>>60
試してないけど、長い処理の途中でグローバルメモリに書き込んで、
別streamでその値を読むカーネルを起動すれば取れると思う。
キャッシュからグローバルメモリに書き込むのは特別な関数を
使うと思ったけど名前忘れた

74 :11/10/02
>>73
思い出した。atomicを使うか、書き込む側で __threadfence()

75 :11/10/04
失礼します、先輩方お助けを。
atomicを使ったソースを"-arch compute_20"オプションでコンパイルすると次のようなエラーが出てしまいます。
「'-arch' は、内部コマンドまたは外部コマンド、操作可能なプログラムまたはバッチ ファイルとして認識されていません。
C:\Program Files (x86)\MSBuild\Microsoft.Cpp\v4.0\Microsoft.CppCommon.targets(103,5): error MSB3073: コマンド "-arch compute_20
error MSB3073: :VCEnd" はコード 9009 で終了しました。」
-archコマンドはプロパティからビルド前イベントのコマンドラインに追加してあります。
-archコマンドがあるディレクトリへパスが通ってないのかなと思うのですが、このようなコマンドがあるディレクトリの追加の方法がよくわかりません。
環境はcuda4.0 + VC2010 + teslac2070(cc2.0) + windows7 proです。
どなたかアドバイスください。

76 :11/10/04
-archコマンドってなんだそら?
compute capabilityはnvccなりcl.exeのオプションに渡すものであって、
-archコマンドなんてものはないよ。

77 :11/10/04
自分でオプションでって書いてるけど、メッセージはそれで実行した系だよな

78 :11/10/04
>>76
>>77
ありがとうございます。「cuda by example」にもatomic関数を使ったソースには-archコマンドラインオプションを指定する必要があります。
とあるのですが、みなさんはatomicを使ったソースをコンパイルするときなにかコマンドつけませんか><?

79 :11/10/04
>>78
あ、もちろん全部64bitです!

80 :11/10/04
CUDA以前の話だな。コンパイラオプションの意味がわかってない。
というか、VCなら、カスタムビルド規則でCUDA Runtime API Build Ruleを追加したほうが早い

81 :11/10/05
-gencode=arch=compute_20,code=\"sm_21,compute_20\"
になってるなぁ俺の環境だと。VC2010ならプロジェクトのプロパティでCUDA関係の設定するところがあるんじゃない?

82 :11/10/05
>>80
ありがとうございます。
えーと、それはおそらくVC2008の話ではないかと思います。2010にカスタムビルド規則という名前はなくなり、その代りCUDA4.0というビルドカスタマイズに統一されています。

83 :11/10/05
>>81
ご返答ありがとうございます。
そのコードはどこに書いていますか?
はい、cuda c/c++という項目にいろいろいじるところはあるのですがコンパイラオプションを設定する項目はないように思えます。
私がオプションを追加しているのはビルドイベントという項目ですね。
以前にもatomic関連の話が出ていたようです。>>22

84 :11/10/05
-arch=compute_20
にすればいいんじゃねえの?

85 :11/10/05
>>84
ありがとうございます。
おっしゃるように>>75のように追加するとエラーを吐きます。
追加の仕方が違うのでしょうか。

86 :11/10/05
VS2010は色々変わってるんだな。
知らんかったすまん。
とりあえず「CUDA VS2010」でググって出てくる一番上のサイト参考にして、CUDA4.0のビルドカスタマイズファイルを導入した後、プロパティからCode Generationをcompute_20,sm_20にしたらいけた

87 :11/10/05
GPUのリソースを全部CUDAに割り当てるため,グラボを2枚さしてディスプレイ出力用とCUDA用に分けるというのはありますが
同じようなことをsandy bridgeとグラボ1枚でも出来るのでしょうか?

88 :11/10/05
>>87
Z68マザーなら、マザー側DVIにディスプレイつないでおけばいい話じゃ?
CUDAで計算したデータをintelで表示したいなら、
1.DirectXかOpenGLのリソースをCUDAにバインドしてデータ書き込み
2.メインメモリに転送
3.intel側に転送
って形になるかなぁ。多分。

89 :11/10/05
>>83
ゴメン、俺もVC2010じゃないや。VC2008。
ちなみに>>81は構成プロパティの中に「CUDA Runtime API」があってそこの「コマンドライン」にある。
CUDA Runtime APIの中にGUIでGPU Architecture(sm_21)を指定するところがあるから、
コマンドを打ってるわけじゃないんだけど、結果としてnvccには>>81のようなオプションが渡ってる。

90 :11/10/05
そもそもなぜCUDA Runtime APIという項目があるのかというとサンプルのプロジェクトをコピったから。

91 :11/10/06
>>80
>>81
ありがとうございます!code generationを>>80のように書きなおしたらオプション指定することなくコンパイル通りました。
どうやらVS2010からはcommand line指定しなくてもcode generationでオプションを渡せるようです。
本当に助かりました。ありがとうございます!

92 :11/10/06
最近巷で流行ってる
error MSB3721: コマンド ""C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v4.0\bin\nvcc.exe" -gencode=arch=compute_20,code=\"sm_20,compute_20\" --use-. ... template.cu"" はコード 2 で終了しました。
のエラーなんですけど解決法どなたか知りませんか??
CUDA FORUMにもかなり話題が上がってるっぽいんですが...私のところにも発病してしまいました。

93 :11/10/06
そこだけ書かれても分からないと思う。
nvccのエラーメッセージ載せないと。

94 :11/10/06
>>92
敵性語なんでよくわかんなかったけど、
VisualStudio を管理者として実行したら動く?

95 :11/10/06
Visual C studioは下手にGUIに頼るよりも、コマンドラインでやった方がはやいこともある。コマンドラインでnvccやってみよう。

96 :11/10/07
単精度のmadってmulより遅いやないかー
プログラミングガイド嘘つきやないかー
ちくしょー

97 :11/10/09
>>96
そりゃ命令実行時間は同じだけど、
必要な帯域は違う。

98 :11/10/09
>>92
コマンドラインのオプションが何か1つ間違ってた気がする。
コマンドプロンプトで同じコマンド実行するとエラーが出たので、
そのエラーのひとつ前の引数が問題だった、はず。

99 :11/10/10
CUDAとRTミドルウェアを組み合わせてみた。
行った方法は、CUDAのサンプルをRTコンポーネントに
パッケージングする方法。
動作周期にあわせて、行列計算が実行されたのを確認。

100read 1read
1read 100read
TOP カテ一覧 スレ一覧 2ch元 削除依頼
Perl忍者最終決戦〜ゲスッ復活プロジェクト (430)
★★Java質問・相談スレッド152★★ (780)
【Delphi互換!?】FreePascal/Lazarus その2【GPL】 (257)
ポインタを難しいと言う奴が理解できない (797)
UNIXプログラミング質問すれ Part10 (438)
WPF(XAML, XBAP, .NET4.0)GUIプログラミング Part12 (888)
--log9.info------------------
我が家のクリスマス (367)
彼氏の前でおならをプゥ〜 (340)
昔のパR (178)
裸で乾布摩擦 (529)
男子は相撲★女子はダンス (125)
昭和の小学生の夏休み (264)
女子でも強烈ビンタ張られる中学、高校 (476)
【はずかしい?】身体検査の思い出2【1枚?】 (692)
腹チラ・へそチラの思い出 (365)
浮き輪、ビーチボールについての思い出・2吹き目 (104)
小学校時代に戻りたい (916)
ブルマーの廃止が早かった自治体と遅かった自治体 (661)
懐かしき埼玉県川口市 (145)
昔なりたかった職業 (228)
間中真由美 (104)
親に処分されたもの (292)
--log55.com------------------
「漁業就業支援フェア ・漁師.jp」漁師目指して☆3
牛バブル
粉砕機・チッパー・ガーデンシュレッダー
【牛乳】酪農スレッド35★ホルスタイン【牧場】
高校生だが農業に携わりたい
【ネタか?】 現代農業を語れ 【宗教か?】
レタス栽培総合スレ Part4
【ぶっちゃけ】農作業中のおしっこ・うんち><