2013年17プログラム142: Kinect ハック 2台目 (234) TOP カテ一覧 スレ一覧 2ch元 削除依頼
機械語なら俺に質問しろ!その2 (216)
最も美しいプログラミング言語は? Part6 (538)
DarkBASIC (810)
C++11/C++1y 18 (806)
人工知能を作ろうver0.0.7 (601)
[JavaScript] スクリプト言語34 [Perl,Python,PHP] (765)

Kinect ハック 2台目


1 :2012/07/20 〜 最終レス :2013/09/21
あんなこといいな♪できたらいいな♪
OpenKinect
http://openkinect.org/
■前スレ
Kinect ハック
http://toro.2ch.net/test/read.cgi/tech/1290795733/
■関連
【Kinect】Xbox360 キネクト総合 Part:30 (DAT落ち)
http://kamome.2ch.net/test/read.cgi/ghard/1290946411/257
Kinect のオープン利用は容認
http://japanese.engadget.com/2010/11/20/kinect/
Kinectハックで『スーパーマリオブラザーズ』をプレイ(動画)
http://www.youtube.com/watch?v=8CTJL5lUjHg
http://www.kotaku.jp/2010/11/smb_kinect.html
Kinect + HMD Virtual Reality
http://www.youtube.com/watch?v=WDlvn3voblQ
2台のKinect で3Dビデオ撮影、視点変更も自在
http://japanese.engadget.com/2010/11/29/2-kinect-3d/

2 :
需要無いかも知れないが立ててみた
いまは反省していない

3 :
このスレッドは天才チンパンジー「アイちゃん」が
言語訓練のために立てたものです。
アイと研究員とのやり取りに利用するスレッドなので、
関係者以外は書きこまないで下さい。
                  京都大学霊長類研究所

4 :
OpenKinectのソースの中にC#版があるがモーターの上下制御だけ対応して放置されてる。
過疎り具合からして、たぶんカメラとマイクの制御は永遠に実装されない。
https://github.com/OpenKinect/libfreenect/tree/master/wrappers/csharp/

5 :
Kinect Pong
http://www.youtube.com/watch?v=rcrIzCyv50U
kinect first hack
http://www.youtube.com/watch?v=ojrp7VVjnx8
Kinect hack with a ... Sniper Rifle!!!
http://www.youtube.com/watch?v=4yp37U-YHv4
Kinect Hand Detection (MIT凄すぎ)
http://www.youtube.com/watch?v=tlLschoMhuE
Kinect + Orge3D = 凄すぎ
http://www.youtube.com/watch?v=Zl6O-Rf52Co
Kinect のドライバが本家 PrimeSense 社から登場
http://slashdot.jp/hardware/article.pl?sid=10/12/15/0056245

6 :
kinectとMMDと繋いでみた
http://www.nicovideo.jp/watch/sm12898511
MMD対応
http://www.youtube.com/watch?v=bQREhd9iT38
MikuMikuDance with OpenNI (Kinect) test
http://www.youtube.com/watch?v=JQvLt7DQhaI
Kinect と深度センサー Qinect
http://www.youtube.com/watch?v=0mEHKFibv0g
Kinect Hack: OpenFrameworksをつかってLineArtしてみた。
http://www.youtube.com/watch?v=I3vZZziTshA
Kinectで光学迷彩を作ってみた
http://fladdict.net/blog/2010/11/optical-camouflage.html
KINECT with Mac(ニコちゃんマーク)
http://www.youtube.com/watch?v=pUn_obT60MM
KINECT with Macテスト(深度情報による表示)
http://www.youtube.com/watch?v=079DD-_V1bw
KINECT with Macテスト(座標ズレ)
http://www.youtube.com/watch?v=fjsEw2vm9pU

7 :
馬鹿には無理

8 :
ミク3
http://www.youtube.com/watch?v=0mEHKFibv0g
http://www.youtube.com/watch?v=JQvLt7DQhaI
http://www.youtube.com/watch?v=MZHEzDmXO2w
108 102 [sage] 2010/12/23(木) 18:19:21 ID: Be:
    動いたー \(^o^)/
    Ubuntu 10.10 amd64 ではどうやっても動かなかった(SSE3に対応したCPUまで買ったのに)ので、
    あきらめてUbuntu 10.10 32bit版をインストールして最初から全部やり直したら、うまく動くようになりました。
    NITEのサンプルにあったボーントラッキングも出来ています。
    長い道のりだった…
    環境はML115, Athlon X2 5000+, Kubuntu 10.10 x86(32bit)
    インストールしたのは
    - OpenNI 1.0 Alpha build 23 binaries for Ubuntu 10.10 32bit
    - avin2-SensorKinect-b7cd39d.tar.gz
    - PrimeSense NITE version 1.3 Beta Build 17 for Linux x86
    の3つをこの順で。NITEはインストールする前にDataの下のxmlファイルを書き換える必要あり。
    これを忘れるとサンプルが起動しない。詳しくはここを。
    http://www.keyboardmods.com/2010/12/howto-kinect-openninite-skeleton.html
    基本的には3つも./install.shを叩くだけだがavin2とNITEはその前に少し作業が必要。
    詳しくはREADMEに書いてある。
    そしてデフォルトでSSE3を使うので手持ちCPUの確認を。
    /proc/cpuinfo に "pni" の文字があればOK (sse3ではない!)

9 :
109 デフォルトの名無しさん [sage] 2010/12/24(金) 07:00:56 ID: Be:
    動画うpしてスゲー、付属のサンプル動かしてスゲーだけじゃなくて、ちゃんとプログラミングに
    ついて語るスレ無いの?
    サンプルソースとAPI Referenceと海外の掲示板読んである程度使えるようになったけど、
    API多すぎレファレンス説明簡略化しすぎで一人で網羅するの辛い。
110 デフォルトの名無しさん [sage] 2010/12/24(金) 08:52:08 ID: Be:
    depth.GetAlternativeViewPointCap().SetViewPoint(image);
    でRGB画像に合うように調整された形で深度イメージが出力されるようになるけど、
    この調整済み深度イメージ上の座標を、元の調整される前の座標に戻す方法ってない?
    例えば関数にポンっとx,y座標投げれば元のx,y座標が返ってくる的なの
    キャリブレーションデータから計算すればいいんだろうけど、面倒くせぇ
    APIあるだろうとリファレンス見て探してるけど見つからない
111 デフォルトの名無しさん [sage] 2010/12/24(金) 09:01:54 ID: Be:
    ここだろ。プログラム板だし。
    俺はやっとサンプルが動いた所なのでもう少し待て

10 :
112 デフォルトの名無しさん [] 2010/12/24(金) 11:04:45 ID: Be:
    NITE
113 デフォルトの名無しさん [] 2010/12/24(金) 11:05:27 ID: Be:
    NITEなぞすぎる
114 デフォルトの名無しさん [sage] 2010/12/24(金) 12:49:24 ID: Be:
    >>110
    「Open〜」系のライブラリで提供されるのは基本的にハードウェアを使えるようになるAPIだけだから
    その辺のアルゴリズムは自前で実装が基本
115 デフォルトの名無しさん [sage] 2010/12/24(金) 13:33:44 ID: Be:
    これ操作中の自分を1.8m以上離れて写すようにkinectを設置するのが難しいな。
    付属のケーブルは3.3mあるけど結構きつい。
    USB延長ケーブルを使って+1mまでなら何とか動作する。
    +3m足してやるとデータ取りこぼしまくりで正常動作しなくなる。
    基本的に延長しない方がいい。
    NITEサンプル楽しい。
116 デフォルトの名無しさん [sage] 2010/12/24(金) 13:41:14 ID: Be:
    Kinect使うときのよくある失敗はOpenNIだけ入れてドライバー入れ忘れることだな。
    俺はavin2/SensorKinectドライバーを使っている。

11 :
119 デフォルトの名無しさん [sage] 2010/12/24(金) 17:14:41 ID: Be:
    とりあえず一番簡単そうなSample-SingleControlは理解した。
    自分でプログラミングするときはインクルードパスを
    /usr/include/ni
    /usr/include/nite
    に通してlibOpenNI.soとlibXnVNite.soをリンクする。
    main.cppでは最低次の2つをインクルードする。
    #include <XnOpenNI.h>
    #include <XnVSessionManager.h>
    あとは検出したいゼスチャーに相当するクラス。このサンプルではWaveDetector.hを使っているので
    #include <XnVWaveDetector.h>
120 デフォルトの名無しさん [sage] 2010/12/24(金) 17:20:35 ID: Be:
    基本的なフローは
    1. コンテキスト(xn::Context)を作る
    2. セッションマネージャー(XnVSessionManager)を作る
    3. 検出したいゼスチャーのコントロール(ここではXnVWaveDetector)を作る
    4. 2-3にコールバック関数を登録する 
    メインループはこんな感じ。
     while (!g_bQuit) {
      context.WaitAndUpdateAll ();
      pSessionManager->Update (&context);
     }
    ドキュメントは次の3つ。
    NITE Controls 1.3 - Programmer's Guide.pdf
    NITE Algorithms 1.3.pdf
    NITE 1.3.0 - API Reference.chm
    とりあえずProgrammer's Guideだけ読んでおけばプログラミングの基礎としては十分。

12 :
121 デフォルトの名無しさん [sage] 2010/12/24(金) 17:36:27 ID: Be:
    いくつかの重要な概念。
    セッション: トラッキングが動作中の状態が「in Session」
    フォーカス・ゼスチャー: 特定の動作を行うとトラッキングが有効になり「in Session」状態に変わる
    "Wave": 手を左右に移動する動作
    "Click": 手を前後に移動する動作
    コンテキスト: そのままの意味
    セッションマネージャー: そのままの意味
    コントロール: ゼスチャーの検出器。PushDetectorとかWaveDetectorとか多数。
    検出したい動作のコントロールをセッションマネージャーを頂点とするツリーでつなぐ。
    イメージ的にはキャプチャーされたデータはセッションマネージャーから流れ出して各コントロールに流れ込み、
    一致していればそこに設定されたコールバック関数を呼び出す。
124 デフォルトの名無しさん [sage] 2010/12/24(金) 19:58:24 ID: Be:
    >>119-121 はNITEミドルウェアを使った場合ね。
    OpenNIのみでKinectから生データ(RGB, Z, 加速度)を取得するのとは別の話。
    そっちは今調査中。NITE使いつつ生データにアクセスってできるのだろうか。

13 :
前スレコピるくらいなら、まとめwiki作った方が早くね?

14 :
126 デフォルトの名無しさん [sage] 2010/12/24(金) 23:06:42 ID: Be:
    C言語からOpenNIを使う場合
    #include <XnOpenNI.h>
    C++からOpenNIを使う場合
    #include <XnCppWrapper.h>  (この名前はどうかと思う)
    コンテキストを作る場合XMLファイルを読み込んで作るのが簡単。
    画像とデプスを取りたい場合は該当するNodeを作る。
     <ProductionNodes>
      <Node type="Depth">
       <Configuration>
        <MapOutputMode xRes="640" yRes="480" FPS="30"/>
        <Mirror on="true"/>
       </Configuration>
      </Node>
      <Node type="Image">
       <Configuration>
        <MapOutputMode xRes="640" yRes="480" FPS="30"/>
        <Mirror on="true"/>
       </Configuration>
      </Node>
     </ProductionNodes>
    rc = context.InitFromXmlFile (SAMPLE_XML_FILE);

15 :
127 デフォルトの名無しさん [sage] 2010/12/24(金) 23:09:33 ID: Be:
    これでコンテキストにNodeが登録されているので、あとはFindExistingNodeするだけ。
     rc = context.FindExistingNode (XN_NODE_TYPE_IMAGE, imageGenerator);
     rc = context.FindExistingNode (XN_NODE_TYPE_DEPTH, depthGenerator);
    データの作成を開始して、
     context.StartGeneratingAll ();
    新しいデータが来るまでブロック。
     while (!g_bQuit) {
      context.WaitAnyUpdateAll ();
      // ここで画像、デプスデータの取り出し
     }
    非常に簡単。

16 :
128 デフォルトの名無しさん [sage] 2010/12/24(金) 23:17:26 ID: Be:
    取得したデータをどうやって表示するか?
    サンプルでは全てOpenGL、glutを使っている。
    カメラを平行投影、視野領域が(0,0)-(WIDTH,HEIGHT)に設定して画面全体を覆う四角型ポリゴンを1枚書く。
    データはすべてテクスチャーにしてglTexImage2Dで毎フレームGPUに転送。ogehoge;
    ちなみにデプス値は自分でヒストグラムを作って手前が1で奥が0になるように描画している。

17 :
>>13
見てなかった。ごめん。
そうですね。wikiあると良いですね。

18 :
屋外で使う方法ってないの?

19 :
新スレ記念
Kinect ?で空中のゴミを検出して箱でキャッチ
ttp://www.nicovideo.jp/watch/sm18391671/

20 :
なんだろ、各方面で自慢して回ってるのね
よっぽど作って嬉しかったんだね
かわいい

21 :
>>20
なんかくやしそうだなオイw

22 :
もし作ったひとがここ見てるなら
次回作はトランポリン風にして
ピンポン玉を拾いながら移動してみてほしい

23 :
お断りします

24 :
>>19
ものはいいのに人がだめなので、残念極まりない

25 :
なんで嫉妬しかないんですかねw

26 :
>>19が素直じゃないからそれを見たやつも素直にならない

27 :
フェイクらしいね
http://uni.2ch.net/test/read.cgi/denki/1341072468/658-

28 :
技術的には可能
そんなことよりもleap motionの方がフェイクっぽくてイライラする
sdk公開してコードが一行も出てこないなんてありえない

29 :
フェイクって何のために出すんだろうね。。
嘘なのに、すごーいって言われても何にも嬉しくないんだが

30 :
あそこまで本物っぽい偽物をわざわざ作る意図が分からんわ。
しかもあれKinectじゃないらしいぞ。

31 :
Xtionだな。前スレでも出てた話題だ。
Kinect PrimeSense+Microsoft
Xtion PrimeSense+ASUS

32 :
フェイクかガチかでもめてますが、どうなんでしょうか?
http://hayabusa3.2ch.net/test/read.cgi/news/1343056135/

33 :
普通にステマじゃね

34 :
フェイクだと仮定するとコントロールを手動でやってることになるけど
人間にはタイヤがどの方向を向いてるかを前もって知るのはできても、コントロールするのは難しい。
ということは、投げるほうが正確にその方向に投げなければならない。
何度もやればできなくはない。
2’31’’のシーンにPC画面が映っていて、人が投げ上げた瞬間に左上に画面が出てくる。
これが加工でないとしたらキネクトが物体を認識した印なんじゃないかと思う。
また、音声は入っているので、ゴミ箱が動き出すときにタイヤの向きを変えているかを聞き取ることができる。
人間が正確にハンドルを切ることは出来ないので、コンピュータによる処理が行われている証拠になる。
僕の耳では動き出す瞬間、1’35’’にテストしている、向きを変えるときの甲高い音が聞こえる。
ゆえに本物。

ちなみにこれの構想は10年くらい前に俺が2ちゃんねるに書き込み済み。

35 :
本物でも作った本人の人間性があかん
故に。。

36 :
>>35
人間性って何処で判断してるの?妄想?

37 :
簡単ですね(キリッ

38 :
匿名掲示板で裏口叩いてる奴の人間性と大差なくね

39 :
制御ソフトは簡単そうだから映像から省かれるのは仕方が無い

40 :
>簡単ですね(キリッ
同じようなことをやってる奴からは嫌われるセリフだな
スキンメッシュくらい簡単だろ
物理演算くらい簡単だろ
bullet使えばすぐできる
当たり判定ぐらい簡単だろ
○○ならやってる
あいつが簡単だって言ってた
その簡単なことに何年も費やした俺はバカだったということだ
人生無駄にした死にたい

41 :
ボブの「ね、簡単でしょ?」は許せる
まぁ自分とは分野が違うからかもしれないが

42 :
フェイクなのにニュースになってる
http://www.j-cast.com/tv/2012/07/25140543.html

43 :
>>42
命中精度がよくないと言う話を聞いて納得。
ゴミ箱の位置とか向きをどうやって特定しているのかがよく分からなかった。
一応電子コンパスとモーター自身の回転数で現在の向きとタイヤ向きは分かるし
多分キネクトでゴミ箱の位置も分かるんだろうけど、正確なものではないから。
あと、タイヤの向きが微妙にずれてたし。
ちょうど数日前にブラシレスモーターの制御ICがモーターの回転角度をある程度把握する仕組みのページ見てたから
センサーらしきものが見当たらなくてもなんとかなるってことは知ってた。
精度を上げるには電子コンパスだけじゃなくキネクトの画像認識でもっと正確な位置や向きを計算したり
移動中にゴミ箱の位置を微調整したりが必要かな。
ハンドルの向きを固定するのは自然とロックするんだろうか。
でも無駄だな。
ゴミ箱にカメラつけて物体を認識したらそれに向かって突撃したほうが簡単に精度は上がる。
問題はバッテリーの持ちか。
待機中通信だけなら大して電気食わないが、画像認識だと結構な電気食いそう。
そうでもないかな?
いや、奥行き見るために赤外線照射してるからこれが結構電気食うはず。
いや、奥行きを見るために赤外線照射しないといけないんだからドットパターンが写り込まない小さな物体は捕らえられないはず。
まあこれは衝突防止とかでやってる2カメラ使った物体認識を使うことでだいぶ現実的にはなるかな。
ゴミ箱のままじゃすぐ飽きられて商売にならないと思うけど
キャッチボール出来るようにしたら案外金になるかも。
その場合かなり耐久性が必要になるけど。

44 :
>>43
 壁に取り付けたXtionと、それにつながったデスクトップPCを使って、
ラジコンのごみ箱を操縦していると思うんだが…

45 :
>>44
そうだろうね。それで?

外観を見ただけではゴミ箱のタイヤがどっちを向いているか分からないので
その制御について僕は話したつもりだけど。

46 :
1:55辺りにコード出てるけど、ゴミ箱の(Xtionから見た)初期位置、姿勢は固定で
深度画像から落下予測点を求めた後、方向と距離を送信してる感じかな

47 :
ゴミ箱はもう秋田から
次は空中ゴミ攻撃防御用ミサイル迎撃システムを見たい

48 :
>>45
 ああ、そういう意味ね。
 赤外線照射がバッテリを…って言ってるから、ごみ箱だけで完結する
システムに持っていきたいっていう話をしてるのか、どっちなのか
よくわからなかった。

49 :
>>48
> ごみ箱だけで完結する
> システムに持っていきたいっていう話をしてるのか
うん、その後そういう話をしたね。
実際に車の衝突防止に使われてるのはカメラ2つと制御チップですよ。あとは固定金具。
パソコン本体も手のひらサイズのやつがあるからゴミ箱に搭載することは可能だけど
無線LANで接続してパソコンに計算させたっていいわけで。
まあ、受信だけしてればいい現状から見れば送信とか計算とか電気食いまくりだけど、
拾うべきものがあるかどうかはコンセントにつながったヤツで判断して
物体が浮いてたらゴミ箱を起動してゴミ箱は自律的にそれを探してキャッチすれば電池の心配はいらなくなる。
しかし、それだとシステムが二重化して無駄になるのでやっぱり単純なラジコンがいいとなるのかな。

50 :
>>44
10回に1回しかキャッチに成功しないのだと。

51 :
うちの由佳は綺麗じゃないから
100%遊べない自身がある

52 :
Kinect for Windows: Developer Toolkit Update (v1.5.2) - Kinect for Windows Blog - Site Home - MSDN Blogs
http://blogs.msdn.com/b/kinectforwindows/archive/2012/08/03/kinect-for-windows-developer-toolkit-update-v1-5-2.aspx

53 :
屋外でも曇りの日ぐらいは使えないのだろうか

54 :
中央帝都のように明かりをたくさん点ければ大丈夫

55 :
ttp://www.sharp.co.jp/corporate/ir/event/policy_meeting/pdf/shar100517_1.pdf#page=18
モバイル型3Dカメラ
小さいな
問題は奥行き精度だけど。

56 :
>>55
なんか見てて切なくなった

57 :
それ見てて思ったけど赤外線使わなくても距離取れるな
二つのRGBカメラと距離が判明している一つの点A
Aに焦点を合わせた状態で
距離観測対象の二つの映像を画像解析して二つの映像の同一点BC
ABとACの距離から物体との距離が測れる
これなら太陽が出ててもいけるし、RGBカメラ二個でもできる
画像解析をはさむから赤外線よりも遅くなるけど安く作ることはできる

58 :
この人物が理系でないことを願うばかりだ

59 :
ステレオマッチングはモバイル向けだと専用にFPGA(StratixII)開発して2010年時に1312*688で150fps出してる東工大のペーパーがあるな
>>55
スレチだが清算や部門売却にあたり、知財がどうなってくるのか
懐にとっておいても台所事情が悪いと研究開発も鈍化するからな
小型3Dカメラや視差カメラとHMD組合されれば電脳コイルのメガネが実現するので
MS、Google、Oculus以外にも頑張って欲しいんだけどね
この分野はソフトだけでもダメでfoxconnのような組み立てるだけの会社だけでもダメで
間に必ず部品の研究、実用化、小型化を行ってる会社がいて、なおかつ元気でないとダメだと思う

60 :
>>58
おまいまさか三角測量知らんのか?

61 :
点Aのキャリブレーションとか、動体の特異点抽出・追従とか、
カメラ3個あ距離の測定誤差とか、いろいろ疑問浮かばないか?
ていうか三角測量で安く作れるならMSの技術者がとっくに採用してるだろw

62 :
「カメラ3個あ」これは書くの面倒になって消し忘れた部分だからカットで

63 :
>>60
それでできるんならさっさと作ってくれんかね。
レーザー測量は機材が高いんだよね。

64 :
>>59
ステレオマッチングか、勉強になった

65 :
いちおー車載の距離測定カメラは、単眼がトップシェアだね
よくこれで距離が測定出来る物だと不思議だが

66 :
ピント合わせてるんじゃね?

67 :
全画素の距離じゃないからでは?

68 :
ホビーユースならWindows用のキネクトより箱○用のキネクトのほうが利用範囲が広いかな?

69 :
???

70 :
箱○のほうは箱○に繋げられるけど、PC用のキネクトは無理でしょ?

71 :
Kinect for Windows Fall Roadmap - Kinect for Windows Blog - Site Home - MSDN Blogs
http://blogs.msdn.com/b/kinectforwindows/archive/2012/09/04/kinect-for-windows-fall-roadmap.aspx

72 :
上のレスと完全に重複だけど、まあ邦訳ということで
Kinect for Windows SDKは10月8日アップデート、さらに7か国で発売 - Engadget Japanese
http://japanese.engadget.com/2012/09/05/kinect-for-windows-sdk-10-8-7/

73 :
Kinect 4台接続に成功した方はおられますか?
ttp://d.hatena.ne.jp/logion/20120907
3台まで何とか成功したのでメモを晒してみますが、
相性問題が大変でもう疲れたよパトラッシュ…orz

74 :
PCもう1台用意してLANで繋いじゃうとか

75 :
>>74
LANでつないだ複数のPCを使う方法はビジョン系の論文で見かけますので
よく使われてるようですね。
MSが公言している「1台のPCでKinect 4台まで対応」、
というのを実機で試してる人は(こちらで探した限り)見つけらなかったので、
なんとかやってみたい所です…。

76 :
Kinectを4台同時に使う用途が謎だが、そういうのは嫌いじゃないw
つーかほとんど相性問題の検証になってるのな

77 :
>>76
やはり、キネクトの最大の弱点である、仰向け・うつ伏せに対応するんじゃないかな

78 :
Intel Perceptual Computing SDK 2013 Beta Gets SoftKinetic Technology | techPowerUp
http://www.techpowerup.com/172043/Intel-Perceptual-Computing-SDK-2013-Beta-Gets-SoftKinetic-Technology.html

79 :
Kinect亜種
【PC Watch】 【IDF 2012基調講演】パルムッター氏がHaswell Ultrabookの新機能を解説
http://pc.watch.impress.co.jp/docs/news/event/20120912_559062.html
http://pc.watch.impress.co.jp/img/pcw/docs/559/062/html/14.jpg.html

80 :
投げられたゴミを受けるゴミ箱
今日の「めざましてれび」で検証してた
30個投げて入ったのは5個らしい

81 :
普通に手で狙って投げた方が確実

82 :
ttp://thinkit.co.jp/story/2012/07/30/3633
kinectでマウスポインタを動かすのに上のサイトを参考にしてやろうと思ったんだけれど
途中の>MultiTouch.Behaviors.WPF4.dllがどうしても準備できない
誰か試してみてくれると助かる

83 :
>>82
アホすぎ
モジュールの入手手段が分からんとか、氏んだ方がいいんじゃね?

84 :
>>82
> MultiTouch.Behaviors.WPF4.dllは下記のURLより[DOWNLOAD] ボタンを選択して、MultiTouchBehaviorSource.zipをダウンロードしてください。
> →参照:Windows Phone, Silverlight and WPF Multi-Touch Manipulations(CodePlex)
リンク先からダウンロードできるプロジェクトがビルドができない…。
具体的には、System.Windows.Interactivity とか Microsoft.Expression.Interactions とかのコンポーネントが見つからない。
ttp://msdn.microsoft.com/ja-jp/library/system.windows.interactivity(v=expression.40).aspx
ググって見つかるヘルプによると…もしかしてExpression Studio 4 がいるのか?

85 :
>>84
体験版インスコすればOK
お試し期間過ぎても、アセンブリ参照は無問題w

86 :
>>73
メモ読ませていただきました. 参考になります
こちらはマザボのUSBポート+USBハブだけで
3台同時使用、SDKでdepth,color画像取得までできました
マザボはASUS P8Z77-Vです

87 :
>>86
すばらしいです。
こうして成功例の構成を公開して頂けると(私を含め)嬉しい人がたくさんいると思います。
そちらの例は、P8Z77-Vのスペック表を見ると、
ttp://www.asus.co.jp/Motherboards/Intel_Socket_1155/P8Z77V/#specifications
- ASMedia USB 3.0 controller
- Intel Z77 chipset (USB3.0)
- Intel Z77 chipset (USB2.0)
で3つのコントローラが載っていたということなのでしょうか…。
あるいは、KinectSDKに書かれているUSBコントローラ1つにつきKinect1台、
という制限を乗り越えられたということであれば前代未聞の偉業だと思います。
(あと、こちらの4台目を接続する話は諸事情によりなくなりました…)

88 :
>>87
おそらくホストコントローラ3つのおかげだと思います
接続する場所によってはうまく動作しなかったのですが、
USB3.0のところだけ組み合わせとしてうまくいく例が多い、ということに
経験的に気づき何とかたどり着きました.
こちらは4台必要そうなので、後はPCI-Expressあたりでどうにかしようかと考えてます

89 :
Kinect for Windows releases SDK update and launches in China - Kinect for Windows Blog - Site Home - MSDN Blogs
http://blogs.msdn.com/b/kinectforwindows/archive/2012/10/08/kinect-for-windows-releases-sdk-update-and-launches-in-china.aspx

90 :
くそー
kinectやる暇ねー

91 :
Inside the Kinect for Windows SDK Update with Peter Zatloukal and Bob Heddle - Kinect for Windows Blog - Site Home - MSDN Blogs
http://blogs.msdn.com/b/kinectforwindows/archive/2012/10/10/inside-the-kinect-for-windows-sdk-update-with-peter-zatloukal-and-bob-heddle.aspx

92 :
Kinect Fusion Coming to Kinect for Windows - Kinect for Windows Blog - Site Home - MSDN Blogs
http://blogs.msdn.com/b/kinectforwindows/archive/2012/11/05/kinect-fusion-coming-to-kinect-for-windows.aspx

93 :
窓の杜 - 【NEWS】Microsoft、「Python Tools for Visual Studio」v1.5を正式公開
http://www.forest.impress.co.jp/docs/news/20121105_570958.html
http://www.forest.impress.co.jp/img/wf/docs/570/958/image3.jpg
http://www.forest.impress.co.jp/img/wf/docs/570/958/image2.jpg
“Python”でKinectセンサーを操作するためのライブラリ「PyKinect」が「Kinect for Windows SDK 1.5」に対応

94 :
「Kinect」を使って試着なしでピッタリのジーンズを選ぶことができる新技術「Bodymetrics」 - GIGAZINE
http://gigazine.net/news/20121107-bodymetrics/

95 :
USBカメラに写したジェスチャーでマウス操作できる「NPointer」
手や身体全体を動かすことでマウスカーソルを移動できるほかクリックなども可能
http://www.forest.impress.co.jp/docs/review/20121119_573593.html

96 :
>>95
設定画面の顔が恐い。。

97 :
貞子それおにんぎょさんちゃう

98 :
>>95
公開したってのが重要だけど、内容はたいしたことないよな

99 :
インターフェース今月号がめっちゃ良かった(小並感)
CQ出版以外も来いよ
オライリーはいいかげんMaking Things See翻訳してよ

100 :
女子中高生がKinectとScratchでインタラクティブな作品作りを楽しむ
www.kumikomi.net/archives/2011/08/rp34fem.php

101 :
4Gamer.net ― 「Garry's MOD」がKinectをサポート。アマチュアの限界を超えた作品作りが可能になるか
http://www.4gamer.net/games/092/G009280/20121129044/

102 :
Inside the Newest Kinect for Windows SDK?Infrared Control - Kinect for Windows Blog - Site Home - MSDN Blogs
http://blogs.msdn.com/b/kinectforwindows/archive/2012/12/07/inside-the-newest-kinect-for-windows-sdk-infrared-control.aspx

103 :
センサー新しいの出るの?

104 :
PrimeSense、「世界最小の3Dセンサ」 Capri を発表。1月のCES 2013で披露 - Engadget Japanese
http://japanese.engadget.com/2012/12/16/primesense-3d-capri-1-ces-2013/

105 :
太陽光あるとステレオカメラしか安価な方法ないな

106 :
『マイノリティ・リポート』風のジェスチャー入力システム、市販へ ≪ WIRED.jp
http://wired.jp/2013/01/07/leap-motion-asus/?utm_source%3dfeed%26utm_medium%3d
Kinect2と関係あるんだろうか
Etron Technology Launches an Innovative USB 3.0 Depth-Map Controller Platform | techPowerUp
http://www.techpowerup.com/178304/Etron-Technology-Launches-an-Innovative-USB-3.0-Depth-Map-Controller-Platform.html

107 :
赤外光で距離を測るから、太陽光があると計測不能だしな

108 :
reconstruct me
http://reconstructme.net/
Kinect for XBOXを流用してReconstruct Meで3Dスキャンして遊んでるんだけど、
スキャン結果がサンプルみたいに滑らかにならず、ノイズが乗ったみたいにデコボコになる。ハイレゾでも駄目。
XBOXだとNearモードが効かないから駄目なのかね?
誰かkinect for windows持ってる人、試してみてくれないか。
windows版だと正常にスキャンされるならwindows版を買いたい。

109 :
解決した。
なんか色んな角度からスキャンする必要があったみたい。
徐々に滑らかになっていった。

110 :
実は凄いツールじゃないのかkinect
瞬時にスキャンされてモデルデータが出来上がるって、色んな応用が効く
それこそ従来の概念を吹き飛ばすような新しいコンテンツが出来上がる
絶対流行るよこれは

111 :
1月11日記念

112 :
http://ces.cnet.com/8301-34435_1-57563350/the-3d-sensor-that-could-change-our-mobile-lives/
今年は多いな。

113 :
>>110
やっと気づいたかい。
日本ではなかなか認められていないな。

114 :
3Dスキャナーとしてやっと手に入れた
reconstruct meで初チャレンジ
精度に期待出来るの?

115 :
ネコを入れるケージの鉄格子(竹串より少し太い)みたいな細いモノは認識できなかった。
テクスチャ張ればそれなりに見えると思うんだがRestructMeはテクスチャ生成してくれないから自分で貼るしかない。
次回のKinectSDKに入るKinectFusionでテクスチャ対応してくれることに期待したい。

116 :
いよいよ、Leap Motionが発売されるね
初めは壮大な釣りかと思ったが、ASUSのPCに同梱されるだの、Best Buy独占販売だの、最近開発者版が届いた人が居るだの、これは本物だね
そろそろ本家サイトで予約してみようかね

117 :
マイクロソフトがKinectとNUIの最新事例を紹介、次期SDKも 2013/01/29
http://itpro.nikkeibp.co.jp/article/NEWS/20130129/452481/

118 :
いろいろ頑張ったけど、vistaじゃv1.00.11でもドライバーインストールできない
win7じゃないって弾かれる

119 :
XNAが終了するけど、あんま関係無いか

120 :
新しいPにopenNIインストールしようとしたらなんかver2とかになっててうんこ
昔のバージョンはどこでDLできるんや・・

121 :
>>120
v1系の最終版はまだ公式でもDL可能。
それより古いのはK氏がアーカイブしてるのを
DL可能。詳細はggr。
特に過去バージョンはドライバやNITEとの
相性もあるし、PCLとか他ライブラリと
組み合わせて使うユーザからすると
サポートは要らないから配布は継続してほしい。

122 :
>>121
いけた、さんくすこ

123 :
ttp://www.openni.org/openni-sdk/openni-sdk-history-2/
ここのページのwindows-x32全部DLして実行してもKinect動かないのな。うんこ

124 :
俺はintelのOpenCLドライバインストールしないと動かなかった

125 :
>>123
動くようにしてWiki作って。よろしく

126 :
SDKまだか
心待ちにしてるんだが

127 :
>>118
敗北感満載で、win8入れてもーた
Reconstructmeすごいな
風呂上りに上半身スキャンしてみたが、、
悪用されるとまずいなぁと感じた

128 :
アイドルをリアルタイムスキャンしてモデルデータを配信するサービスとか始めそうだな

129 :
OpenNI2に、Depthを0.1mmまで出力できる
モードが搭載されたって本当?
出力を確認できるサンプルコードとかあるのかな?
今自由にシステムを入れ替えられるPCがないので、
知っている人がいたら教えて欲しいんだが。

130 :
知ってどうすんの?
システム入れ替えんの?

131 :
新型キネクトまだー?

132 :
>>130
もし本当なら入れ替えるし、ガセなら現状維持。

133 :
そもそもソフトウェアで精度変えられるんか?

134 :
その位置だと読み取りにくいんでもうちょい前にきて
とか出るソフトウェア

135 :
Kinect Fusion demonstrated at Microsoft Research TechFest, coming soon to SDK - Kinect for Windows Blog - Site Home - MSDN Blogs
http://blogs.msdn.com/b/kinectforwindows/archive/2013/03/06/kinect-fusion-demonstrated-at-microsoft-research-techfest-coming-soon-to-sdk.aspx

136 :
Kinect understands a clenched fist
http://www.fudzilla.com/home/item/30712-kinect-understands-a-clenched-fist

137 :
★マインドコントロールの手法★
・沢山の人が偏った意見を一貫して支持する
 偏った意見でも、集団の中でその意見が信じられていれば、自分の考え方は間違っているのか、等と思わせる手法
・不利な質問をさせなくしたり、不利な質問には答えない
 誰にも質問や反論をさせないことにより、誰もが皆、疑いなど無いんだと信じ込ませる手法

↑マスコミや、在日カルトのネット工作員がやっていること
TVなどが、偏った思想や考え方に染まった人間をよく使ったり、左翼を装った人間にキチガイなフリをさせるのは、視聴者に、自分と違う考え方をする人間が世の中には大勢いるんだなと思わせる効果がある。
.....

138 :
最近の Kinect:体で体を造形するBodyAvatar、グリップ認識で空中マルチタッチ - Engadget Japanese
http://japanese.engadget.com/2013/03/09/kinect-bodyavatar/

139 :
Kinect for Windows Academic Pricing Update - Kinect for Windows Product Blog - Site Home - MSDN Blogs
http://blogs.msdn.com/b/kinectforwindows/archive/2013/03/11/kinect-for-windows-academic-pricing-update.aspx

140 :
Kinect for Windowsのサンプルコード: 新 masafumi's Diary
http://masafumi.cocolog-nifty.com/masafumis_diary/2013/03/kinect-for-wind.html

141 :
Kinect for Windows announces new version of SDK coming March 18 - Kinect for Windows Product Blog - Site Home - MSDN Blogs
http://blogs.msdn.com/b/kinectforwindows/archive/2013/03/16/kinect-for-windows-announces-new-version-of-sdk-coming-march-18.aspx

142 :
わーい明日が待ち遠しい
ところで、kinect fusionはモデルをobjなり何なりでエクスポートできるよな。
・・・できるよな!

143 :
Kinect for Windows SDK v1.7は大幅更新、3DスキャンのKinect Fusion や掴んでスクロールなど - Engadget Japanese
http://japanese.engadget.com/2013/03/17/kinect-for-windows-sdk-v17-3d-kinect-fusion/

144 :
そろそろ上がってるかなと思ったらまだ向こうは6時かよ
時差ありすぎだろ

145 :
>>144
上がってた
http://www.microsoft.com/en-us/kinectforwindows/develop/developer-downloads.aspx

146 :
FusionExplorer実行しても>>141ほど滑らかにならないな。
NearModeが無いせいか精度が低くて壁の部分がガタガタになった。

147 :
やっぱりNearじゃないと精度低いのかね。
http://blogs.msdn.com/b/kinectforwindows/archive/2012/01/20/near-mode-what-it-is-and-isn-t.aspx
>>when the sensor is in near mode, it has full accuracy and precision for objects 2 meters away,
Nearだと精度高くなるという意味でいいのか

148 :
>>147
>>141の椅子の表面の状態と比べると雲泥の差だから結構違いがあるかも。
かといって今からfor Windows買っても新型が発表されたら嫌だしなぁ。

149 :
Kinectやりたいけど、今年終わりには新型が出るしな

150 :
>>149
本当に?ソースくれ
だとしたら発売日に2台も買った俺涙目

151 :
非Nearでも色んな角度でスキャンすれば面の荒さはだんだんと落ち着いていくが、
もっとディティールアップして滑らかになるなら欲しいかな。
ところで、最も肝心なテクスチャ機能が無いのは自分で実装しろってことか。

152 :
>>1
【Kinectで】キネクト接続初心者スレ【ミクを動かせ!】
http://jbbs.livedoor.jp/bbs/read.cgi/music/23040/1292878004/

153 :
えらい古いな

154 :
しかし、サンプルコードが随分わかりやすくなったな。MSにも良い技術者が入ったな。

155 :
フュージョンで生成したモデルにカラーから持ってきた画像をテクスチャとして貼ってるんだが、
センサーとカメラの位置や画角の違いのせいか、どうしても誤差が出る。
カラー画像とセンサー画像がピッタリ一致していれば楽なんだが。
新しいkinect出すんなら、カラー画像とセンサー画像の一致を図ってほしい。

156 :
この値段でそれは無理だろw

157 :
カメラの位置関係は固定なんだから
頑張ればいい感じにできそうではあるけどね

158 :
Making Things See買ったよオライリー日本ありがとう
トラ技でまさかセンシングの連載が始まるとは思わなかった
センシングの波が確実に着てるわ
Consumer Depth Cameras for Computer Visionが気になってるけど
さすがに和訳してくれる出版社は無いだろうなぁ
和訳してくれる出版社は無いだろうなぁ(チラッ チラッ

159 :
ちんたら翻訳してるうちにブームの波が去るから無理

160 :
その前にブームにすらなってないだろw

161 :
キネクト、ゲーム系じゃなくて仕事で使ってる(使った)人いますか?
ちょっとしたイベント用にどうですか?
SDKのデモ見せたら受けが良かったんだけど、実際どうなんだろうなって・・・

162 :
>>161
攻殻機動隊イベント

163 :
openCVとからめて使うならc++やるのがいい?
C#ならある程度できるんだけど

164 :
>>163
OpenCVSharp と絡めてC#で書いた方が開発効率が素敵
ただし画像処理は必ずOpenCVに任せるか、
どうしても自力でピクセル単位の処理を書くならC++/CLIで書くいた方がいい
C#で済ませようとすると遅すぎて悲惨

165 :
>>164
ありがと!
あんまりopenCV#の良い評判を聞かないんでどうなのかと思って
とりあえずC#で書いていきます

166 :
新型Kinect来たね
映像で重心が取れてるのが凄い
ただ接続は独自端子みたいだから
新型のKinect for Windowsセンサーが出るまではPC繋げられない
そしてPC版が出た場合、端子は何を採用するのだろう?
1080PでRGB+デプスにマイクで幅どのくらい必要?
現行機のK4Wがいつまで販売されるのかも気になる

167 :
Xbox Oneの新Kinectは大幅進化、表情や心拍も認識。6人同時に全身キャプチャ - Engadget Japanese
http://japanese.engadget.com/2013/05/21/xbox-one-kinect-6/
XBOX ONE 専用 『新型Kinect (仮)』 技術解説紹介デモ映像
http://www.nicovideo.jp/watch/sm20927261

168 :
センサー画像とカラー画像を一致させろ
同じ位置にセンサーとカメラ搭載しろ

169 :
>>168
光軸一致させようとしたら光学系のとこがめっちゃ高くなるやん…(´Д`;)

170 :
プリズム使わにゃならんから、値段が最低1桁は上がるな

171 :
>>166
箱○kinectの端子とは違うの?
http://www.4gamer.net/games/990/G999025/20130522001/SS/014.jpg
http://www.wired.com/images_blogs/gadgetlab/2013/05/20130514-XBOX-ONE-TEARDOWN-016-660x440.jpg

172 :
>>171
既存のAUX端子とは違うみたい
http://pbs.twimg.com/media/BKzusV0CEAAwZmm.jpg
この大きさから鑑みて相当な幅を要求されると思うんだけど
PCの汎用ポートで対応できるものあるのかな?

173 :
箱で専用のコネクタにしてるのは、USBポートや箱○に差さらないようにすることで
余計なサポートコストの発生を回避するためだと思うの

174 :
http://www.famitsu.com/news/201305/22033667.html
>Xbox OneのKinectセンサーは、レンズのように見えるのが1つしかないが、
>この開口部で深度取得と映像の撮影の両方を行っていることになる。
およ?

175 :
https://www.shacknews.com/article/79307/kinect-for-xbox-one-coming-to-pc
PC版新キネクトきたあああああああああああああああああああああああ

176 :
>>174
これはつまり、センサーとカメラの一致を最大限はかったということかね?

177 :
新Kinectは2Gb(bps?)とか書いてあったよね。
変に画像データを圧縮しても負荷が増えそうだし、USB3.0は必要そうだけど。

178 :
新型は今ほど安価で導入しやすいって感じにはならなさそうだね
デモ映像見てる限りでは出来ることは多そうだけど

179 :
現行のKinectだと壁の部分が歪んだデータが得られるのだけど、新型はさらに視野角が
大きくなってるのに安定したキャプチャできてるのは内部で補正してるってことかな。
設置距離が近くても全身が取り込めるならありがたい。
で、PC用の値段はいくらぐらいの予定なの?

180 :
2万弱?

181 :
光線の往復時間から距離を割り出すなんて、凄い精度だな

182 :
光線って1秒間に3万kmも進むんだろ?
誤差が数センチとしてもアリエない精度だよなー

183 :
アルプス2万弱

184 :
>>182
約30万km/s
約0.3m/ns

185 :
秒3万kmだったら月まで13秒もかかってしまう

186 :
月まで何秒かかるのが普通かなんて覚えてないよ

187 :
fpsいくつあればcm単位で計測出来るんだよw

188 :
GPSがまさにそれだな。
衛星の高度2万キロあって誤差数メートルかな

189 :
今のGPSはcm単位の誤差なのに

190 :
そりゃ複数拾って補正してるからで
単一のGPSからの経過時間から距離割り出すとそんなもんだよ

191 :
もちろん1個じゃ位置わからんけどね

192 :
GPSは各衛星からの電波の干渉を計るだけでそんなに精度は必要としなかったような希ガス

193 :
http://monoist.atmarkit.co.jp/mn/articles/1306/06/news093.html
やはりセンシングの波が来てる
来年度からセンシング、コンピュータビジョン関連の研究室に応募者が殺到するね

194 :
そこの動画みたけど
ショボいのばっかじゃん
まともに遊ぼうと思ったら
あと10年は無理

195 :
だから、研究には最適って話。

196 :
これからどんどん人とお金が集まれば
加速度的に進化いくと信じたい
新型Kinectが牽引してくれるといいんだけど

197 :
なんで二つ目にこだわるんだろうね
目が5.1chとかでもいいんじゃね

198 :
可視光にこだわる必要もなし
γ線でウマー

199 :
PS Eyeでいいな

200 :
プレステのEyeToyって時代を先取りし過ぎたんだな

201 :
コストじゃね?

202 :
ほぼ初心者
reconstruct meをはじめて使うんだが、
出張スキャンしたいので
これが動くノートを探しているんだが
公式だとGPUが
AMD Radeon HD 6850
NVIDIA GeForce GTX 560
これ以上となってるんだけど
良くあるノーパソの
Intel HD Graphics 3000(CPU内蔵型?)じゃダメなのかな?
問題外?

203 :
>>202
ttp://reconstructme.net/projects/reconstructme-console/installation/
ここのリンク先まで目が乾くほど見つめて
それでも分からないならお前のスペックを増強してこい。

204 :
なぜわざわざグラボ指定しているのに、内蔵でも動くかと考えたのか

205 :
reconstruct me ならcore i5・オンボードグラフィックスチップのノートPCで動いたよ

206 :
マカーでPCも英語も><
グラボってなに?レベルからスタート
試しに手持ちのmacbook C2Dでwin7に入れてみたけど
何日してもなにが悪いんだかわからず終い
やっぱり敷居高かった
>>203
これですか?compatibility matrix
結構相性あるみたいですね
網羅されてるわけじゃないみたいだし
マシンも各社あるけど、どれがどれだか
調べてるうちに気が遠くなってきた...
けっこう値段するなあ
>>205
おお、ちなみに機種は?

207 :
>>205
asusのK53E

208 :
>>207
なんと。確かに
インテル® HDグラフィックス 3000(CPU内蔵)
みたいですね
Scan Highresでもいけました?

209 :
Open failed: OpenNI library can't find any module!
Press any key to continue . . .
osxでopenNIサンプルが動かないんだが、どうすりゃいいんだ?

210 :
kinect操作するなら言語は何がいい?
openCVと連携するならc++の方がいいんかね

211 :
D

212 :
Kinect + レゴ マインドストーム
って面白いね
屋外でも使えたら最高なんだけど
日傘さしたり夜限定ならいける?

213 :
LeapMotionが全く話題に上らない件に関して。

214 :
屋外でも夕方以降ならいいんだけどね
日陰くらいじゃあお天道さまの赤外線にはかなわないんだろね

215 :
ポイントクラウド取れないんだもんLEAP

216 :
>>213
ちょっとでも動かすと再キャリブレーションが必要とか
3次元計測には全く不向き、てのが個人的には大NG。

217 :
過疎りすぎじゃね

218 :
KINECTもXBOXも売却か
焦点:米マイクロソフト新CEOが迫られる大きな「二者択一」 | Reuters
http://jp.reuters.com/article/topNews/idJPTYE97Q05C20130827

219 :
Kinectのカラー画像で各ピクセルのデプス情報をint値で取りだすのはどうすればいいですか?
C++、OpenCV、OpenNIです。

220 :
カラー画像からデプスは無理なんじゃないですかね・・・(コナミ)

221 :
すいませんカラー画像云々は無視してください。
デプス情報をint配列で取りだしたいんです。

222 :
ポイントクラウドって何?
色情報?

223 :
>>219
つNiViewer
>>222
ggrks

224 :
SDK1.8はいつですか?

225 :
サンプルコードによっては Open-CVの処理だけバカ重くなる  使い方だな

226 :
SDK1.8出た〜

227 :
とうとう来たか!
待ってたよ!!

228 :
Kinect Oneまで待つわ

229 :
http://www.danielgm.net/cc/
これでplyを見られた
カラー情報はply形式でしか保存できないのね。
テクスチャは自分で頂点カラーから作れという事だな。

230 :
頂点カラーでテクスチャ貼ってるように見せてるのか
メッシュが異常に細かいからこそ出来る芸当だな

231 :
そのplyの頂点カラーからテクスチャに変換するには
どうすればいいの?

232 :
>>231
数枚のテクスチャに頂点カラー適用した全てのポリゴンを描画してその3点の座標を各ポリゴンの頂点のUVとした
objで出力する必要上そうしたけど、素直に頂点カラー使ったほうがレンダリングが速くていい

233 :
だれにレスしてんだこいつ

234 :2013/09/21
なんかいやなことでもあったか
TOP カテ一覧 スレ一覧 2ch元 削除依頼
関数型プログラミング言語Haskell Part23 (480)
【SICP】計算機プログラムの構造と解釈 Part3 (553)
C++は難しすぎ 難易度:4 (441)
【RAD統合環境】 Qt 総合スレ 15 【Win/Mac/Linux】 (506)
ネットワークプログラミング相談室 Port29 (372)
「コンパイラ・スクリプトエンジン」相談室15 (706)
--log9.info------------------
【ウソ】ブログやツイッターで嘘ついてる人【うそ】 (340)
【超零細2chコピペブログ】 相互RSS募集スレ4 (343)
【Google】Blogger.com part10 (935)
★アメブロの要注意人物★ (655)
マジキチブログ発見したったww (124)
ニート荒らしの大ちゃんをヲチするやつ集まれ!! (529)
人が来ないBLOGの管理人集まれ 65Hit (881)
糞ブログです (883)
祝 KaoluneとKINGできちゃった婚 (368)
Jenkaの思い出を語ろうか (360)
まとめなんJブログ管理人スレ6 (461)
【photo】写真ブログやってる奴集まれ (326)
【オサレ】ブラ者のブログを語るスレ19【ヌテキ】 (575)
ブログ宣伝 4 (341)
【毎日】ほっこりサイトを生暖かくヲチするスレ30【*】 (703)
【かのこ】ケサラン・パサラン【大嘘つき日記】14 (628)
--log55.com------------------
バラいろダンディ 322
内村さまぁ〜ず 9/2 〜
TOKYO MX アニメ総合実況スレ ◇ 197
091◆TOKYO MX1 総合実況 424
5時に夢中! 2319
TOKYO MX マターリスレ☆5473
田村淳の訊きたい放題! Part95
5時に夢中! 2320