1read 100read
2013年17プログラム102: 【GPGPU】くだすれCUDAスレ part6【NVIDIA】 (480) TOP カテ一覧 スレ一覧 2ch元 削除依頼
【Intel】OpenCV総合スレ 4画素目【画像処理】 (970)
Subversion r14 (694)
【実験台】 Python 3.0 のお勉強 Part 1 【非互換】 (571)
任天堂「今後C++は捨てJavaScriptで開発していく」 (674)
Win32API質問箱 Build115 (558)
スレ立てるまでもない質問はここで 128匹目 (980)

【GPGPU】くだすれCUDAスレ part6【NVIDIA】


1 :2012/09/23 〜 最終レス :2013/09/21
このスレッドは、他のスレッドでは書き込めない超低レベル、
もしくは質問者自身何が何だが分からない質問を勇気を持って書き込むスレッドです。
CUDA使いが優しくコメントを返しますが、
お礼はCUDAの布教と初心者の救済をお願いします。
CUDA・HomePage
ttp://developer.nvidia.com/category/zone/cuda-zone
関連スレ
GPGPU#5
ttp://hibari.2ch.net/test/read.cgi/tech/1281876470/
前スレ
【GPGPU】くだすれCUDAスレ【NVIDIA】
ttp://pc12.2ch.net/test/read.cgi/tech/1206152032/
【GPGPU】くだすれCUDAスレ pert2【NVIDIA】
ttp://pc12.2ch.net/test/read.cgi/tech/1254997777/
【GPGPU】くだすれCUDAスレ pert3【NVIDIA】
ttp://hibari.2ch.net/test/read.cgi/tech/1271587710/
【GPGPU】くだすれCUDAスレ pert4【NVIDIA】
ttp://hibari.2ch.net/test/read.cgi/tech/1291467433/
【GPGPU】くだすれCUDAスレ part5【NVIDIA】
http://toro.2ch.net/test/read.cgi/tech/1314104886/

2 :
関連サイト
CUDA
http://www.nvidia.co.jp/object/cuda_home_new_jp.html
CUDAに触れてみる
http://chihara.naist.jp/people/STAFF/imura/computer/OpenGL/cuda1/disp_content
CUDA のインストール
http://blog.goo.ne.jp/sdpaninf/e/9533f75438b670a174af345f4a33bd51
NVIDIAの「GeForce 8800 GT(G92)」と次に控える64-bit GPUアーキテクチャ
http://pc.watch.impress.co.jp/docs/2007/1031/kaigai398.htm
CUDAを使う
http://tech.ckme.co.jp/cuda.shtml
NVIDIA CUDAを弄ってみた その2
http://dvd-r.sblo.jp/article/10422960.html
CUDAベンチ
http://wataco.air-nifty.com/syacho/2008/02/cuda_2044.html
KNOPPIX for CUDA
http://www.yasuoka.mech.keio.ac.jp/cuda/

3 :
テンプレここまでです。変更点はcudaさわってみた(http://gpgpu.jp/article/61432191.html)
リンク切れのため外したことのみです。

4 :
>>1

5 :
>>1
CUDAでがんばっていきやしょう!

6 :
マンデルブロ集合を描いてフルHDサイズの画像を保存するプログラム書てワクワクしてたら、
CUDAよりCPUのシングルスレッドの方が速かった (´・ω・`)
この程度の計算だとメモリ転送がかなり足を引っ張るんだね

7 :
たくさんのお仕事がないとGPUさんはがんばれない^^;

8 :
メモリ転送イヤポだから、AMD、IntelのiGPUはCPUの管理のメモリをGPUからでもアクセス
出来るようにする方向なんだろ

9 :
ユニファイドメモリってなんか先祖返りな不思議な気分ね
あとからGPUだけ交換できない時代にもなって寂しくなりそうだ
実現したらCPUがそのまま浮動小数点モンスターになって、ドライバもDirect3DコマンドをCPU処理で完結して、
CPUが直でディスプレイコントローラ叩くことになるんだろかね

10 :
メモリ空間統合したほうが絶対イイね。
データのコピー転送オーバーヘッドはあほらいい。

11 :
コピー転送オーバーヘッドを調べる方法ないのか

12 :
16EiB の壁はいつ来るだろう

13 :
>>11
イベントで計測できるんじゃない?

14 :
書籍「CUDA BY EXAMPLE」の第7章テクスチャメモリを読んでるんだが、
意味が分からない。
テクスチャメモリは読み取り専用と言っておきながら、
普通に書き込んでもいるような気がする。
デバイス側に確保したメモリ data.dev_inSrc を texIn に、
デバイス側に確保したメモリ data.dev_outSrc を texOut に
それぞれテクスチャとしてバインドしている。
で、熱伝導を計算するカーネル関数の「引数」に、
1 フレーム毎に data.dev_inSrc と data.dev_outSrc を切り替えて渡している。
このカーネル関数の中ではそれらに値を書き込んでいる。
(もちろん、もう一方はテクスチャとして tex1Dfetch、あるいは tex2D で読み取ってる)
これって読み取り専用というよりは、たとえテクスチャとしてバインドしようが、
依然グローバルメモリとして使うこともでき、かつ tex1Dfetch などで読み取れば、
特別なキャッシュが働いて近傍への読み取りは速くなる、という事?

15 :
CUDAプログラミングを体験したいのですが,CUDAのできる格安ノートPCを教えてください.

16 :
CUDAのプログラミングを体験したいのならエミュレーションで十分

17 :
>>14
そういうことだと思う。
グラフィックスやってると普通の感覚なんだけど、
テクスチャ読み出ししてテクスチャにレンダリングするのは常套手段。
汎用コンピューティング時にテクスチャとしてデータを読むときの利点は
テクスチャ用の高帯域バスやキャッシュ、そしてフィルタリング用の固定機能ハードウェアを利用でき、
よりGPUを効率的に扱えることにあると思う。

18 :
>>17
すいません、ちょっと質問です。
テクスチャ用の高帯域バスを活用するには、
それのバス幅などが分からないといけない(他と比較できない)と思いますが、
deviceQuery.exe で調べても nVidia のサイトでスペック表を調べても、
どこにも載っていないような気がします。
普通のメモリバスやメモリクロック数などは分かるのですが、
テクスチャ用の高帯域バスについてはどこで調べればいいのでしょうか。
フィルタリング用の固定機能ハードウェアについても、
自分が使用しているグラフィックチップにどのような物が搭載されているかも、
分かりません。
そもそも、CUDAカーネルからテクスチャメモリの値を読み取る場合、
フィルタリングってされるのですか?
テクスチャ用の特別なキャッシュ機構がある事については、
「CUDA BY EXAMPLE」に載っていましたから分かりました。

19 :
>>18
自分は後藤さんの記事を参考にしているよ。
たくさんあるけど、いくつか紹介。
NVIDIAが次世代GPUアーキテクチャ「Kepler」のベールを剥いだ
http://pc.watch.impress.co.jp/docs/column/kaigai/20120322_520640.html
NVIDIA Fermiのマルチスレッディングアーキテクチャ
http://pc.watch.impress.co.jp/docs/column/kaigai/20091105_326442.html
NVIDIAの1TFLOPS GPU
「GeForce GTX 280」がついに登場
http://pc.watch.impress.co.jp/docs/2008/0617/kaigai446.htm
固定機能関係についてはDirectXなどのグラフィックスAPIと同調しているから
そちらの知識が必要になるね。
固定機能にはフィルタリングやアドレッシングがあるけど、
CUDAではこれらをバインド時に設定するみたいだね。
CUDA テクニカルトレーニング
Vol I:CUDA プログラミング入門
http://www.nvidia.co.jp/docs/IO/59373/VolumeI.pdf
(103ページ目のスライド)

20 :
>>19
ありがとうございます。
参考にさせていただきます。

すいません、私が使用しているのは Quadro K2000M なんですけど、
テクスチャのバスの帯域幅とかって、どこで分かりますか?
これはフィールレートと呼ばれるものとは別物?
いま nVidia のサイトで調べているのですが、なかなか見当たらないです。
公式には出てない情報なのでしょうか。

21 :
テクスチャフィルレートが相当すると言えなくもないけど、フォーマットによって変わるから参考にしかならない
概算はTex数×コアクロック(シェーダクロックではない)で見積もれる
テクスチャメモリを使うとテクスチャキャッシュを通るから、汎用のキャッシュがない上にコアレスアクセスの条件が厳しいG80〜GT21xでは有効だった
Fermiはテクスチャユニット数の比率が減らされた上に、テクスチャキャッシュより汎用キャッシュの方が大容量になったので、むしろ遅くなることもあった
完全に予想だが、Keplerは(線形補間やテクスチャ端の丸め処理を手動でやる必要がなければ)おそらくテクスチャメモリを使っても使わなくてもそんなに変わらない

22 :
>>20
そのGPUは最新世代のKeplerアーキテクチャだね。
Keplerの前のFermi世代からはメモリ階層が大きく改変されて、
テクスチャ転送に最適化された上りのパスがなくなった。
http://pc.watch.impress.co.jp/img/pcw/docs/359/423/06.jpg
依然としてテクスチャL1キャッシュを利用できるメリットはあるけどね。
いずれにせよ、内部バスがどれくらいの帯域であるかは公開されていないと思うよ。
クロスバスイッチ接続で調停しながらでもあるから、ちゃんとした数字も出せないだろうし。
Fermiからはキャッシュが噛むようになったから、なおさら。
仮定と実測の両輪でうまく最適化して詰めていくことが醍醐味だろうね。
面倒だけど・・・w
まぁ、ハード屋やってると、こういうのは楽しい。
フィルレートはグラフィックスにおいて、画像の画素を埋めていく(フィル)する速さのことだから、
グラフィックス処理用のROPユニットの能力が影響してくると思うし、あまり参考にはならないかもね。

http://www.nvidia.com/content/PDF/product-comparison/Product-Comparison-Quadro-mobile-series.pdf
しかし、このGPU、CUDAコア数に対してメモリ帯域が残念すぎないか?
Keplerアーキ自体が以前と比べてそういう傾向あるけど、それにしてもヒドイw
キャッシュがあるから大丈夫なんかな?
どうであれ、演算/ロード比が相当大きくないと性能出すの難しいかもね。

23 :
>>21
> 概算はTex数×コアクロック(シェーダクロックではない)で見積もれる
ありがとうございます。
Tex数というのはテクスチャユニットの数ですかね。
今自分のチップにどれくらいの数が乗ってるか調べてます。

>>22
> しかし、このGPU、CUDAコア数に対してメモリ帯域が残念すぎないか?
> Keplerアーキ自体が以前と比べてそういう傾向あるけど、それにしてもヒドイw
そうなんですか。
ThinkPad で CUDA 使えるイイ奴といったらこれしかなかったもので。
> どうであれ、演算/ロード比が相当大きくないと性能出すの難しいかもね。
がんばります。

24 :
PTXでブロックまたがってすべてのスレッドでグローバルメモリの同期やりたい時ってmembar.glでいいんだよね多分。

25 :
ホスト側のコードだけを書いた cu ファイルと、
デバイス側のコードだけを書いた ptx ファイルとをリンクして
ひとつの exe ファイルを作る方法はあるでしょうか。
もしあれば、やり方を教えてください。

26 :
>>25
ホスト側が面倒になるけどDriver APIとか

27 :
>>26
やはりそれしかないですか・・・

28 :
なんでそんなことをしたいのかが気になる。

29 :
>>28
ptx のアセンブラコードを理解する必要がでてきました。
「PTX: Parallel Thread Execution ISA Version 2.3」のPDFは読んでますが、
やはり実際にアセンブラコードを書いたりして実験しないと難しいです。
そこで、nvcc が cu ファイルに書かれたカーネル関数を、
どのようなアセンブラコードにコンパイルするのか、
そのアセンブラコードに変更を施したら結果はどのように変わるか、
などの実験をいろいろやっています。
今はカーネル関数が書かれた cu ファイルを nvcc で ptx ファイルにコンパイルし、
ホスト側で Driver API を使ってそれをロードして実行しています。
ptx ファイルを多少いじるだけなら再コンパイルの必要は無く、
また cu ファイルを多少いじるだけでも、こちらの再コンパイルだけで済みます。
しかしカーネル関数の引数を変えたり、使うデータを変えたりするなら、
ホスト側のコードも供に再コンパイルする必要があり、手間がかかります。
実験が数回くらいならいいですが、何回もやってるとけっこう面倒です。
nvcc host.cpp dev.ptx などと一気にコンパイルできたらさぞ快適だろうなと思い、
質問した次第です。

30 :
Makefile

31 :
>>30
あぁ、そっちでコンパイルするファイルやコンパイル方法を制御するわけですね。
挑戦してみます。

32 :
PTXのコードをインラインアセンブラを使って直接cuファイルの
中にかけばいいじゃん。

33 :
>>32
知りませんでした。
「NVIDIA CUDA C Programming Guide Version 4.2」を「inline」で検索してみましたが、
__noinline__ や __forceinline__ の記述しかなかったです。
どこに詳細が載っているのでしょうか。
他にも、ptx のコードを cu ファイル内に書くのでしたら、
文字列として書いた ptx コードの先頭アドレスを適当な変数に入れて、
cuModuleLoadData 関数でロードすることでも実現できますね。
ただ問題は、それだと C 言語で書いたカーネル関数が、
nvcc によってどのような ctx コードにコンパイルされるか、
という部分が調べられない事です。

34 :
>>33
http://developer.download.nvidia.com/compute/DevZone/docs/html/C/doc/Using_Inline_PTX_Assembly_In_CUDA.pdf
試してないけど、nvccが出力したPTXのコードをインラインアセンブラの形式で
書き換えることも出来るんじゃない?

35 :
>>34
ありがとうございます。
なんというか、少々独特のインラインアセンブラ構文ですね。
今の環境より実験がやりやすくなるか調べてみます。

36 :
>>35
GCCのインラインアセンブリ構文がこういうのだよ


37 :
>>36
http://d.hatena.ne.jp/wocota/20090628/1246188338
これ見ると、たしかに同じですね。
インラインアセンブラはその昔 VC++ でしか使ったことがなかったもので

38 :
インラインアセンブラは今回の目的には合いませんでした。
インラインアセンブラ自体は問題なく使えて、なかなか面白いのですが、
nvcc で出力した ptx のコードをそのままインラインにしたのでは使えず、
けっこうな修正を余儀なくされます。
なかなか慣れないこともあって作業量はむしろ増えてしまうので、
今回は make を使ってやる方向でがんばってみます。
(こちらだと、今までの延長線上の考え方で何とかいけるので)
みなさん、ありがとうございました。

39 :
CUDA5で美味しい事あるの?

40 :
>>39
新機能を使わないんだったら全然美味しくない。
CUDA5でビルドしたらかなり遅くなった。

41 :
CUDA 5 Production Release Now Available
CUDA Downloads | NVIDIA Developer Zone
http://developer.nvidia.com/cuda/cuda-downloads

42 :
早く5の報告しやがれ

43 :
4Gamer.net ― NVIDIA,「CUDA 5」を正式発表。第2世代Kepler「GK110」に向けた準備が整う
http://www.4gamer.net/games/076/G007660/20121016013/

44 :
>>42
普通に動いてるよ。

45 :
>>43
Nsightはプロファイラーも付いてるのか。
こりゃいい。

46 :
>>43
読んでみたけど
これはGeForce切り捨てってこと?
今まで十分遊んだろ
これからはまともにGPGPUしたかったら、金出してTesla買えや
ていう風に読める

47 :
それは、Kepler発表の時からゲーム用のKepler1と
GPGPU向けのKepler2があるってことになってた。
Kepler1があまりにGPGPUに向いてなくてGeforce680あたりを
買った人はがっかりしてたよ。

48 :
>>43
Eclipse用のNsightも出てLinuxやMacでも開発しやすくなるのは大きいかも。
>>46
Dynamic ParallelismはGK110以降での対応でMaxwell世代ではコンシューマ向けでも対応するのでは?
GPUDirectはクラスタ向けの機能で差別化されても仕方ない気がする。

49 :
>>47
ゲーマーにGPGPUっていらんだろうからな
要らないのを付けて高い値段・高消費電力になって売れないものになるなら削れだろ
CUDAする奴はとんがったことする奴だろ。そんな奴ならKepler2のTeslaぐらい買うだろうからな
買えない貧乏人はAMDのradeonに移行しろだな

50 :
Mac はどうか知らんが、Linux は Windows 版に比べて、
どうしてもドライバのチューニングが徹底されていない感じがする。
SDK 内のサンプルを動かしてみても、
Windows 上で動かしたときより明らかにフレーム数が落ちる。

51 :
そりゃ、いくらDRIが実装されたからといってX11なんていう
太古のグラフィックAPI使ってるんだから、そんなもんじゃないの?
本気を出させたければWayland待ち。

52 :
>>51
遅いのはCUDAじゃなくて、その結果を表示する
グラフィックスライブラリの方ってこと?
確かに、フレーム数が低いと分かって時点で Linux パーティション消したから、
グラフィックスを伴わない純粋な計算で比較したことはないなぁ
今度ためしてみよ

53 :
フレーム数計る時点で、グラフィックカードに描画させてるんだよね?
その描画をグラフィックス・ライブラリが足引っぱってるんじゃないかってこと
CUDA自身はプログラムをGPGPU用のアセンブリ言語に変えて
GPGPUに実行させるだけだから、あまり差が出るとは考えにくい。

54 :
そう言えば Yellow Dog Linux for CUDA 使ってる人いる?
どんな感じなの?

55 :
Linuxなら、GUI止めないとカーネルによっては処理速度ががた落ちする。
使えるGVRAMも激減する。

56 :
CUDA + GUIつっても、サンプルでXが関わるところなんてウィンドウの枠だけじゃないか?
あとはOpenGLで描画されていると思うが

57 :
>>55
Windowsのほうがガタ落ちだし、使えるメモリも少ない。
グラフィックスを使うと遅くなるのはXの問題だから。

58 :
dynamic parallelism は GeForce じゃ無理なんですか

59 :
うん。

60 :
調べたなかではGDRAMのみのように見えるんだけど、
テスラだとL1、L2、シェアードメモリもECC保護されてるの?
それともL1、L2くらいの容量なら気にしなくてもいいのかな?

61 :
レジスタも。

62 :
>>58
今のところTesla K20のみだったはず

63 :
一般人向けは2014年まで待てとか遅すぎる

64 :
GK110はいつになったら一般向けで出てくるのやら…

65 :
>>64
ないと思うのは俺だけか

66 :
>>65
gtx780とかじゃないか?
来年の春だった気がする。

67 :
GTX 780はKepler1の改良版だって聞いたぞ。

68 :
一般人向けでダイナミックなんちゃらが使えるのはMaxwellからとか
AMDが2013年中に簡単にOpenCL対応アプリをかけるようにしてきたらどうするんだろ

69 :
NVIDIA Visual Profiler v4.2をCentos6.2で使おうとしてるんだけど、
No Timeline
Application timeline is required for the analysis.
と出て解析できない。
調べたらLD_LIBRARY_PATHに/usr/local/cuda/lib64やらを追加せよとあったんでやってみたけど状況変わらず。
どなたか同様な症状に出くわした方はいらっしゃいませんか?

70 :
>>69
CUDAプログラミングはまだまだ敷居が高いね・・・

71 :
nvcc ***.cu -O2 -Xcompiler -O2
のようにO2を重ねるのは無意味ですか?
前者のO2はGPU用,後者のO2はCPU用と勝手に思っていたんですが,
同じ事を繰り返しているような気がしてきました.

72 :
>>71
意味があるのか、どのような意味があるのかまでは分からんが、
とりあえず、「同じ事を繰り返しているのかどうか」については、
出力されたファイルを比較すれば直ぐに分かると思うぞ。
バイナリで比較してもいいし、アセンブラコードで比較してもいい。

73 :
ptxで2つある場合,前者のみ,後者のみ,両方無い場合を比較しましたが,
冒頭の***.iファイルの名前が微かに違うのみで差はありませんでした.
両方消しても差が出ないのは?ですが,
重ねても意味は無さそうであることが分かりました.
>>71
ありがとうございました.

74 :
>>73
今のgccのディフォルトが-O2相当なんで、書かなくても変わらないのはその所為。
試しに、-O3とか-O1との組み合わせを試してみたら?

75 :
登録ユーザーサイトが復旧したよ

76 :
k20はやっぱり高いな。
38万だそうだ。
20万切ってくれないと買えない。

77 :
dynamic parallelism対応のGeforce(GTX8XX?)が出たら
画像とか動画を扱うソフトは瞬く間にCUDA完全対応になるのかね?

78 :
んなわけない

79 :
dynamic parallelismができるからCUDAが劇的に簡単になるわけじゃないから。
Reductionとかで効果はあるけど。

80 :
そもそもReductionはマルチパスにしないで
2パスで済ませた方がいいのは、
CUDAのreductionトレーニングでも明らか

81 :
CUDAのプログラム作って動かしたいです
自分のMacbookは、グラフィックのチップがIntel GMA X3100なんですけど、
NVIDIAじゃないとCUDAは使えないんですか?

82 :
ここで聞いて良いのか分からないので、不適切なら誘導お願いします。
GeForceの省電力の状態(P0〜P12)をGetLastInputInfo-GetTickCountに
応じて切り替えるようなソフトを作りたいのですが、
P0〜P12を切り替えるAPI関数はありませんか?

83 :
NVAPIをhackすればできる

84 :
CUDAカーネルの中で呼び出す関数に特定の処理を入れるとカーネル自体が読み込まれなくなります
具体的にはプロファイラで実行時間見てみるとカーネル自体が表示されず、一瞬で動作終了する状況です
一応、その特定の処理の部分をコメントアウトするときちんと実行されます(当然正しい結果は出ませんが)
こういったことはどういう状況で起こり得るのでしょうか?

85 :
>>84
カーネル呼び出した時にエラーが起きてるんでしょ。
エラーチェックしていないんじゃないの?

86 :
>>84
cudaGetLastError()は何と言っている?

87 :
>>85
即レスありがとうございます
正にその通りでした。単にメモリの要求量がおかしかっただけみたいです
初歩的すぎるミスに自己嫌悪…

88 :
NVIDIAR Nsight? Visual Studio Edition 3.0 CUDA Preview
Nsight Visual Studio Edition Early Access | NVIDIA Developer Zone
https://developer.nvidia.com/rdp/nsight-visual-studio-edition-early-access

89 :
Nvidia Geforce forum is back from the dead
http://www.fudzilla.com/home/item/29337-nvidia-geforce-forum-is-back-from-the-dead

90 :
CRS形式の行列格納サンプルコードってどこかにない?

91 :
いくらでもあるだろ
圧縮方法を理解できたらサンプルもいらんな
1 2 3 4
2 5 6 7
3 6 8 9
4 7 9 10

92 :
>>91
圧縮方法はわかったんですがコードに上手く起こすことができなくて困っていたんです。何かいいサンプルがあれば教えていただけると助かります。

93 :
馬鹿には無理。

94 :
CUDA5は既存のGPUに入れると遅くなるの?

95 :
研究室でCUDA用にGTX680搭載PCの導入が決定してしまったんだが評判悪いとはいえ流石に今使ってる560Tiよりは性能いいよね?

96 :
Tesla K20きたぞ

97 :
>>96
予算処理上の都合だったらしい。

98 :
最近プログラム入門した
CUDAとか聞くとワクワクするけど物理の知識も科学の知識も特にないので
数百万スレッド並列で処理するネタが思いつけなくて悲しい思いになる
もっとちゃんと勉強しておけば良かった

99 :
京が3位に

100read 1read
1read 100read
TOP カテ一覧 スレ一覧 2ch元 削除依頼
【Delphi互換!?】FreePascal/Lazarus その2【GPL】 (362)
【消しゴム】MONOを使ってみるスレ4【じゃない】 (525)
Subversion r14 (694)
【GUI】wxWidgets(旧wxWindows) その5【サイザー】 (569)
pythonがこの先生きのこるには (753)
国産オープンソースDIコンテナSeasar2 その16 (512)
--log9.info------------------
長妻のせいでみんな豚インフルで死にます (156)
殺菌・消毒・滅菌について ★1 (345)
マスクの有効性について議論するスレ 3 (508)
豚インフルエンザ感染国報告スレ (300)
新型インフルの疑いリストを淡々と更新するスレ (147)
大阪インフルエンザ★2 (106)
■ 近くで鳥が死んでいたらageるスレッド (131)
家族が新型を発症したが自分は高熱等でなかっった人 (119)
休校措置とられ学校の生徒集まれ (206)
ハンセン病総合スレ (103)
【インフル】日本各地の状況を報告するスレin新感板 (419)
新型インフルエンザ【家庭で出来る予防法・治療法】 (413)
マスク自作スレ【無いよりマシ】 (742)
俄かに脚光浴びているドクターサチについて語るスレ (116)
東京は新型インフル大量感染を隠蔽か★2 (908)
【即納】-メディカル未来-通販報告スレ【超特価】 (505)
--log55.com------------------
【刀使ノ巫女】衛藤可奈美ちゃんは剣術一筋かわいい 御刀10振り目
【旗揚!けものみち】シグレは狼耳かわいい
【ご注文はうさぎですか?】千夜はロマンチストかわいい17
【超余裕】猿飛忍はスパッツにライン入りソックスかわいい
【放課後さいころ倶楽部】武笠美姫は京都弁かわいい
ドラゴンボールZのビーデルさんが好き 76
【まどか☆マギカ】まどか×さやかスレ191【まどさやまど】
【超余裕】プリンス暁はトリックかわいい【マジシャン】