(強いAI)技術的特異点/シンギュラリティ(世界加速)7 (354)
TOP カテ一覧 スレ一覧 2ch元 削除依頼 ▼
反重力、永久機関、フリーエネルギー総合 4 (100)
反重力、永久機関、フリーエネルギー総合 4 (100)
反重力、永久機関、フリーエネルギー総合 4 (100)
反重力、永久機関、フリーエネルギー総合 4 (100)
反重力、永久機関、フリーエネルギー総合 4 (100)
反重力、永久機関、フリーエネルギー総合 4 (100)
(強いAI)技術的特異点/シンギュラリティ(世界加速)7
1 :2013/09/27 〜 最終レス :2013/10/22 2045年頃に人類は技術的特異点(シンギュラリティ)を迎えると予測されています。 どんな世界が構築されるのか?技術的だけでなく社会的、文化的な側面は? 人間はどうなるのか?価値観は? あるいはそもそも起こり得るのか? そんなことなんかを話しあってみるスレ。 ■ 技術的特異点 収穫加速の法則とコンピュータの成長率に基づいて予測された、生物的制約から開放された知能(機械ベース・機械で拡張)が生み出す、具体的予測困難な時代。 http://ja.wikipedia.org/wiki/%E6%8A%80%E8%A1%93%E7%9A%84%E7%89%B9%E7%95%B0%E7%82%B9 ■ 収穫加速の法則 進歩のペースがどんどん早くなるという統計的法則。ここでの進歩とは、技術的進歩だけでなく生物的進化、生化学的秩序形成も含む。 http://ja.wikipedia.org/wiki/%E5%8F%8E%E7%A9%AB%E5%8A%A0%E9%80%9F%E3%81%AE%E6%B3%95%E5%89%87 http://dic.nicovideo.jp/a/%E5%8F%8E%E7%A9%AB%E5%8A%A0%E9%80%9F%E3%81%AE%E6%B3%95%E5%89%87
2 : ■ 強いAIと弱いAI コンピュータが強いAIと呼ばれるのは、人間の知能に迫るようになるか、人間の仕事をこなせるようになるか、幅広い知識と何らかの自意識を持つようになったときである。技術的特異点をもたらす有力な手段と考えられている。 弱いAIは人間がその全認知能力を必要としない程度の問題解決や推論を行うソフトウェアの実装や研究を指す。 http://ja.wikipedia.org/wiki/%E5%BC%B7%E3%81%84AI%E3%81%A8%E5%BC%B1%E3%81%84AI ■過去スレ ☆技術的特異点スレッド(強いAI?弱いAI?)3 http://uni.2ch.net/test/read.cgi/future/1329142684/ (強いAI)技術的特異点/シンギュラリティ(世界加速)4 http://uni.2ch.net/test/read.cgi/future/1341924376/ (強いAI)技術的特異点/シンギュラリティ(世界加速)5 http://uni.2ch.net/test/read.cgi/future/1350477243/ (強いAI)技術的特異点/シンギュラリティ(世界加速)6 http://uni.2ch.net/test/read.cgi/future/1363657701/
3 : 脳の1秒、スパコンだと40分 大脳皮質もとに働き再現 http://www.asahi.com/tech_science/update/0802/OSK201308020063.html 理化学研究所は2日、スーパーコンピューター「京(けい)」(神戸市)の全計算能力を使って脳の 働きを再現する世界最大規模のシミュレーションに成功したと発表した。実際の脳なら1秒でする ことが京だと40分かかった。計算を重ねれば、ヒトの脳の仕組みの全容解明につながるという。 理研などの研究グループは京のすべての演算処理能力を使って、17億3千万個の神経細胞と、 神経細胞同士をつなぐ10兆4千億個の「シナプス」でできた大脳皮質をもとにした神経回路の モデルで計算した。これまでより細胞数で6%、シナプス数で16%上回る世界最大の規模だ。 それでもヒトの脳の神経細胞数の1%ほどで、マーモセットなど小型のサルの全脳と同じ程度という。 ----- 人間の脳を再現するには2400(秒)x100(人間の脳)x10.51PFLOPS(京の処理能力)で2,522,400PFLOPS、 2522.4EFLOPSの処理能力が必要。まさかエクサフロップス級を飛び越えてゼタフロップス級の コンピューターが必要だとはな・・・
4 : >>1 乙
5 : 横レスですまんが前スレ>>996 に質問 脳をブラックボックスのまま模倣するなら当然脳スキャンは必須だよな どこまでシミュレートするかによっても変わるが、過去スレでは収穫加速の法則通りに脳スキャン装置の性能が向上してもカーツワイルの予測する時期に間に合うか分からないって話が出てたと思うけど、その辺はどう考えてる? もっとも、原理的に可能と主張したいだけで到来時期に拘らないなら別に問題ないけど
6 : >>3 もまえら程度の頭なら京でも充分ってことか
7 : >>前スレ991 節子、それ人間機械論と違う。 >>前スレ992 人間機械論と唯物論をごっちゃにされてもなあ。 >>前スレ996 > これについては「強いAIとは何か」の段落にまとめるということでよろしいか。 よろしいよ。 > 模倣する立場において、仕組みの理解は不要。 脳を必要充分にシミュれば勝手に創意工夫するだろう。という意味ね。 問題は何が必要充分なのか?だろうな。 > あくまで脳の話と? > さっきも言ったが実証は"困難"であって、必ずしも不可能とは限らない。 > 当然意識のような主観的側面は外部から観測出来ないが、仮説通りのシステムが物理的側面のみで実装されている場合であれば、実証可能。 元はカーツワイル本に書かれてるイメージングの進歩の話では脳から知性が生み出されているところまで届きそうも無い。 それに関するズバリとした回答はあるか?という話だ。 その回答が、ズバリなど無い。ややこしくていいならおおかた予測はついている。 ということだったのでそれは実証不可能なモデルレベルの話でしょ。という話。 意識のような主観的側面は外部から観測出来ない。というのが結論だということだね。 > じゃあやはり拘る必要はないんじゃないのか。 うん。いいよ。でも話が迷宮に迷い込まないように注意して頂戴ね。
8 : >>前スレ997 > 「どこまで影響するか」とは「どの要素からどの要素までに影響するか」という意味で言ったのか? > てっきり「意識にどの程度まで影響するか」あるいは「情報処理にどの程度まで影響するか」という、程度の意味かと思ったのだが。 違う違う。処理単位の内部挙動が結果に影響をするかどうかはモデルしだいでしょ。と言う話。 それをスッパリ切り捨てて良いと断定してるから、それはまだ分からんがな。と言っている。 > アトムみたいに身体を用意しても良いし、ミクのホログラフィみたいにしても良いし、そういうのが学校や職場に居ると思えば良いだろ。 ・・・おいおい。 > どんな職でも人間の代わりが務まる、とかで良くね。 > そんな厳密に考える意味ある? 良く分からんぞ。強いAIじゃなくて人間を作ろうとしてるのか? > > この僕に「嫌い」と思わせてるものは何だろう?そして君に剥きになって感情的な書き込みをさせているものは何だろう。 > 何でそう話を進めようと思った。悪いが、流石に意味がわからん。 意識の実在の説明をしたのだが。ピンと来ない?君には意識が無いの?
9 : >>前スレ997 > それと俺は淡々と矛盾を指摘しただけ。 そうか。論理がむちゃくちゃになってたんでてっきりムキになってるのかと思った。 そんじゃ真面目に答えるか。 >全てを疑うと言いつつ意識の実在ありきで話を進め、 そう言われても気付いたときから意識はあるからなあ。 意識の研究は結構ホットな話題になってるでしょ。まだ結論が出るとは思えないけど。 >更には唯物論と言いつつ二元論を展開し、 二元論と言うからには元が二つあるはずだが、何と何の二元なんだ。 君の言ってる > さてここで意識について考えるが、意識とは情報統合的なもので、処理単位同士の高度で綿密な連携が求められるのは疑う余地がないと思う。 と僕が言ってる意識は脳という物理から発生している。は同義だぞ。君も二元論者か? >それを科学的態度だとまで豪語するとは、 ま、科学をどう定義するかも人それぞれだからな。 なんでも良いんじゃない。ここも深掘りしたら科学テツガクに迷い込んじゃうよ。 ついでに言っておくと一から真似すれば同じものが出来る。というのも科学というよりは信念の問題だよ。
10 : いきなり脳スキャンとかハードル上げないで c-elegance位から地道に進化させた方がいいんじゃね?
11 : 当然やってるだろ。ネズミの脳もシミュレートされてるし。
12 : 進化はしてねーだろ?
13 : >>7 些末な差異を示したところで、 現代にいたるまで機械論的な見方・仮説・方法論が医学・生物学の歴史において生命の謎を解く役に立ってきた事は否定できない。 「機械論的で無い」見方・仮説・方法論が生命の謎を解くのに役立った事例を寡聞にして知らないので、何か一つ挙げてくれないか? (私は「超自然的な作用の介在を否定する立場」という意味で「機械論」と言っているので、念のため)
14 : >>5 自分で考えろ
15 : 答えられないならスルーすりゃいいのに
16 : >>15 本人乙
17 : 馬鹿丸出しな奴が一匹。
18 : >>6 そんな面白くもない言葉を吐いたところで、おまいがマーモセット以上の知能を持つ証拠にはなりゃしないよ。www >>5 の方がまだまともな知能を持っていそうだ。
19 : 植物状態の人を連れてきて脳スキャンすれば意識の謎は解明されるんじゃないかなあ あと、基本植物状態だけど薬を投与すると短時間だけ意識が回復するって人や植物状態から復帰した人の脳も是非調べてみたい所
20 : >>13 なるほど。機械論と聞いてラ・メトリの人間機械論を思い浮かべるのは少数派か。 僕は唯物論の中でも機械論というと古典力学的なものを指すと考えちゃうんだけどな。 今主流なのは構造論的な唯物論でシステム論が台頭し始めてるところ。 と思うんだけど、違うかな。 > 「機械論的で無い」見方・仮説・方法論が生命の謎を解くのに役立った事例を寡聞にして知らないので、何か一つ挙げてくれないか? 上記の通りなのであまり興味は無いけど、錬金術なんてどう? 研究者でいうとライプニッツとか非機械論的な人はいっぱい居るけど。 > (私は「超自然的な作用の介在を否定する立場」という意味で「機械論」と言っているので、念のため) それなら良いんじゃない。唯物論だから。 でも唯物論=機械論というのはちょっと違和感を感じるぞ。
21 : 唯物論=機械論とは言ってないだろその人 まあ機械論つっても色々あるよな 機械論と言わずに物理主義と言えば解決 物理主義さえ宗教だというのは解決されないが
22 : すまんがレス遅くなる。 小出しに返すことになるかもしらん。 >>5 あの本を見ればわかるが、プロット数が少な過ぎる。 間に合うかどうかわからないというより、単純にデータ不足であてにできないというほうが近い。 実際のところは、今の技術の延長上でさえシナプスオーダーならイメージング可能なため(詳細は4スレ目あたりで「第二高調波顕微鏡」で検索すると良い)、個人的には30年あればいけんじゃねーのかねえ、と思ってるが。 ま、そもそも生理学的な模倣より、機能的な模倣のほうが早いんじゃないかと思っている。 じじいは2029年までに強いAIが完成するに1万(円ではない、ドル。念の為)賭けてるらしいが、時間をくれりゃ俺がもっと早く完成させてやんよ。
23 : >>20 たぶん、自分の機械論的なものの見方はラ・メトリーの見方ほど極端じゃない。 ラ・メトリーは「霊魂なんてものは存在しない!」と断言しきっちゃってる人だから。 私はそこまで断言できるほど多くを知っているわけじゃない。 ただ、「知能を持つ生き物や機械がどれほど進歩しても解明できない、超自然的ななにものか」ありきで話を進める事を好まず、 「超自然的な作用の介在は無い」という前提で「とりあえず進める所まで進む」事を好む。 私の意識に対する考えは、>>21 が指摘したように、たぶん「物理主義」というのが一番近いのだろう。 >錬金術 あー、近代以降の発展のスピードの方にばかり目が向いていて、錬金術とか占星術の事を失念していた。 ただ、「まず神秘的なものありき」で進んできた錬金術も占星術も本筋の方は行き詰ってしまい、 派生した道筋が謎の解明に役立ったという印象がある。錬金術から生まれた化学、占星術から生まれた天体物理学、等々。 で、近代から現代にかけて「物理主義は行き詰った」とする論者が現れるたびに、 科学と技術の進歩によって「物理主義で進める限界」が押し広げられてきたように思える。
24 : >今主流なのは構造論的な唯物論でシステム論が台頭し始めてるところ。 私はそれを「物理主義的な見方の下で、『複雑系』等の概念を持ち込んで生命現象を解明しようとする立場」と認識しているが、 その認識で合っているかな?
25 : >>23 そうなんだ。 結局のところどう考えるのが合理的「だと思う」か?という問題なので、個人の信念の問題なんだ。 「99.9%は仮説」なんていってる人も居るしね。 現代の唯物論的科学の基礎を作ったのが信仰に基づいて行動した人たちの集めた膨大なデータだというところは面白いよね。 今でも医者なんかはキリスト教者が結構居るし。 >>24 複雑系はシステム論の一種だね。残念ながら瀕死状態らしいが。 一般的には物理主義と複雑系は対立する概念と捉えられている。 複雑系が解き明かそうとしているのは物理主義が切り捨てているものだから。 たぶん君が言っている物理主義は普通の唯物論に近いと思う。
26 : >>22 >時間をくれりゃ俺がもっと早く完成させてやんよ そこまで言うからには当然最低限のプロトタイプは既に完成してるんだよね? まさか何も手を付けてない状態で豪語しているわけじゃないよな。
27 : そうだな、 松本元が理化研でやってたブレインウェイ・チップを超える成果を >>22 が挙げているとするなら、 あそこまで豪語するのも、まあ、どうにか許せる範囲ではある。
28 : >>26 やめてさしあげろ「俺のPCのCドライブ」思い出すだろうが
29 : 彼戻って来ないかなあ。面白かったのに。 あまりにも強烈だったんで頭に焼き付いて離れないよ。
30 : 脳を全部スキャン出来たとして、それで何がわかるの?
31 : >>30 脳を全部スキャン出来ても何も知見が増えないなんて、どうしておまいごときにわかるの? w
32 : >>31 なるほどw スキャンしたら何かわかるかもしれない その程度の発想だったのかwww
33 : だいたいの実験はその程度の発想から始まる
34 : スキャンしたところで見通しは特になにもないってことか。
35 : 浅学な自分は脳について多くを語れないが、 斜に構えてかっこつけている >>30 とか>>32 とか>>34 とかからも、 脳や人工知能について 何ら面白い発想は期待出来ないな。
36 : 何が分かるかはやってみないと分からないわな。 僕の予想だと何じゃこりゃと言うものがいっぱい出てくると思うけど。 2045年もたぶん「何じゃこりゃ」って言ってるだろうな。
37 : だが、それがいい
38 : うん。そこが好き。 Priceless .
39 : >>35 10で地道に進化させる方法を提案してるじゃねーか。 不勉強なくせにえらそーな口きくな。
40 : >>35 おまえバカだろ。
41 : カーツワイルは初期の強いAIを「ショッピングモールにいる一般人と同じ」と予想してるけど 無限に近い記憶容量を持てるだけで相当なものになると思うな 某板に頭の中に図書館が出来たコテがいるけど彼からはいつも神秘的な知性を感じるよ もっとも博学なだけで新型CPU開発が出来るかどうかは微妙だろうけどね
42 : >>41 > カーツワイルは初期の強いAIを「ショッピングモールにいる一般人と同じ」と予想してる これって暗に「俺は一般人とは違う」って言ってるよね。 まあ確かにかなり特異ではあるが。
43 : >>39 別に脳のシミュレートという手法を否定しているわけじゃないんだが、 何でそう喧嘩腰になる必要があるんだ? 理解に苦しむな。 IBMの研究所じゃ線虫どころか猫の脳の丸ごとシミュレートに成功してるんだが、 人を不勉強呼ばわりするからにはそれくらい知っているんだろうね? ググるなり、3スレの500前後辺りを読み返すなりしてみると良い。 >>40 何とも知性の感じられない、ワンパターンな言葉だ。 人工無脳の方が(以下略)
44 : 3次元分子コンピューティングってどのくらい現実味があるの? 今の技術で積層やったら放熱できず確実にCPUが焼け死ぬと思うんだけど
45 : >>44 IBMとNECがもうやってる
46 : >>43 >IBMの研究所じゃ線虫どころか猫の脳の丸ごとシミュレートに成功してるんだが、 >人を不勉強呼ばわりするからにはそれくらい知っているんだろうね? >ググるなり、3スレの500前後辺りを読み返すなりしてみると良い。 まるで分かっていないのを気が付いていない様子w だからそういう評価されるんだよ。
47 : >>46 どこが「分かってない」のか具体的な言葉で指摘できないなら、 おまいが分かっているという証拠にならんな。
48 : >43 >IBMの研究所じゃ線虫どころか猫の脳の丸ごとシミュレートに成功してるんだが、 すみません。いくらググっても上記の記事のあるサイトが見つけられません。 URLなどご存知でしたら教えていただけませんでしょうか? 原著論文でも結構です。 よろしくお願いします。
49 : 猫の脳丸ごとシミュレート成功か 大ニュースになってるはずなんだが
50 : >>48 つ http://www.scientificamerican.com/article.cfm?id=graphic-science-ibm-simulates-4-percent-human-brain-all-of-cat-brain
51 : >>49 日本のマスゴミは科学専門の記者を内部に置かない つまりそういうことな
52 : サイエンティフィックアメリカンなら少し時期遅れにはなるが日経サイエンスで読める 日経とNHKは侮ったらあかん
53 : >>50 その記事を「猫の脳の丸ごとシミュレートに成功」と読んでしまうのは、科学リテラシーに相当問題がある。
54 : そりゃ日経サイエンスはそういう雑誌だしな 意識的に興味を持つ人の目にしか触れない そしてNHKはまだしも他の大手はてんで駄目駄目だろ
55 : >>45 のソースも見たい。商用化のメドはあるの?
56 : >>55 ソースっていうか、3d chip stack site:ibm.comとでもすれば出てくるよ。 量子コンピュータも一緒に出てくるのが笑いどころか。 もう10年くらい前からある技術だし、Intel他も研究してるし、一部は実用化もされてるかも。 ttp://en.wikipedia.org/wiki/Three_Dimensional_Integrated_Circuit とはいえ、急に3DICがスタンダードになって、ものすごい勢いで技術が発展するという機運はなさそう。
57 : ライト兄弟が飛ぶ前に、飛行機飛ぶのを全否定してた奴らは夢がない。
58 : 3DICが実用化されたって話までは聞かないな こないだのIBMのスパコンも2Dじゃなかった? そういやベンチャーが開発した量子コンピュータも「量子効果が確認された」って春頃話題になってたな
59 : >>57 夢を実現するには妄想だけじゃどうにもならないんだよ。 反省しろよw お前のは人に夢とかいて「儚い」という表現が適切な。 ライト兄弟が結果を得る為に支払った代償を理解できないんだろ? そういう奴は代償なしで求めるんだよ。
60 : >>57 人それぞれだから好きにすれば良い。 でも僕は2045シンギュラリティだの宇宙の覚醒だのを信じろ。と言われても無理。 タイムマシンよりなんぼかマシな程度。 それにこのスレでシンギュラリタリアンが言ってきたことと言ったら。 ・自分で勝手に研究を進めるAIの設計など簡単。(しかし具体案は無い) ・ブラウン運動にエネルギーはいらない こんなんばっかでしょ。基礎が出来てないと思うよ。
61 : そうやってすぐ人格攻撃に走るんだよな
62 : >>61 おいおい、僕が>>60 だが、これが人格攻撃に見えるってどうかしてるぞ。
63 : 「物理法則を自力で発見」した人工知能 http://wired.jp/2009/04/15/%E3%80%8C%E7%89%A9%E7%90%86%E6%B3%95%E5%89%87%E3%82%92%E8%87%AA%E5%8A%9B%E3%81%A7%E7%99%BA%E8%A6%8B%E3%80%8D%E3%81%97%E3%81%9F%E4%BA%BA%E5%B7%A5%E7%9F%A5%E8%83%BD/ こういう記事を見ると科学の発達に意識は必ずしも必要でなく知能さえあれば十分なんじゃないかと 思えてくるわ
64 : >>60 エーテルを媒介すればブラウン運動にエネルギーは必要ないよ 君門外漢だね もうちょっと勉強してからおいで
65 : 宇宙の覚醒ってネーミングの悪さはどうしようもないが、一部のシンギュラリタリアンを叩いたところで技術的特異点への反論にはならないのも確かだわな。
66 : >>53 リンクの先の原論文までざっと読んでみたが、『神経細胞10億・シナプス数10兆』と言うのは どうやら大脳皮質ベースのシミュレーションのようだな。確かに、『脳全体』というには語弊があるか。 しかし、猫の大脳皮質の神経細胞数は約3億・脳全体では約10数億。その気になれば脳全体もいけそうだな。 線虫なら、脳細胞数は約300個・体細胞全体でも約1000個。 >>10 が「現在のコンピューターは線虫の脳シミュレーションもできない程度」と認識しているとしたら、 少々情報が古いんじゃないかな。
67 : >>62 どうみても人格攻撃じゃない、もし人格攻撃に見えるとしたら 答えは1つ、糖質100%
68 : >>66 進化させることを言ってるの。 複雑に機能が分化してる脳細胞を 何億も手配線すんのは非現実的だろうと。 かと言ってその辺のGAみたいに期待する配線の組み合わせをひたすら探索するのもムリ。 計算してる間に宇宙終わっちゃう。 だったら実績のある生物のマネして自動化するのはどうかっていう案。 古い?
69 : >>66 脳幹、小脳、大脳と言った脳の構造がシミュられて無いでしょ。 それぞれ神経細胞や結合の仕方が違うんだが。 その間の連携も無視されてるでしょ。というかそもそも詳細が分かってない。 グリア細胞も無視されてるし。 シナプスオーダーで猫の脳規模のニューロンネットワークをシミュった。 というのが正解でしょ。 猫の脳をシミュって再現した。と言うところからは程遠いわな。
70 : 攻殻1巻(91年発行)を読んだら欄外に「そろそろ人間級のAIが出てくるだろうから楽しみ」 みたいなことが書いてあって時代を感じた
71 : そろそろって書いてあった?91年にそろそろだと、かなり早い見積もりだし、士郎正宗が91年にそう書くとは思えない気がする。 あの人ものすごい資料読んでるはずだから。 何ページ目?
72 : 攻殻の世界はたしか2030年くらいだったしそろそろってのもその時代を想定して言ったんじゃないかな?
73 : 攻殻の世界じゃ確か2005年ごろに全身義体が出来てないとおかしいんだよな あれ、アニメ版の設定だったっけ?
74 : >>60 AIの設計が難しいと思うのは何故? AIに詳しいなら教えてほしいけど、天運2号にワトソンと同じAIを入れたら簡単なプログラミングぐらい出来る?
75 : 永遠に生きる「自分のアヴァター」をつくれるサーヴィス http://wired.jp/2013/10/03/lifenaut/
76 : >>74 おまえバカだろ。
77 : >>74 ん? 話の流れが分かってないんじゃないか?過去スレ見てきてくれ。 好奇心をもって勝手に研究を進めるAIなど簡単に設計できるといってた猛者が居たんだよ。
78 : 超弦理論/superstring theory【Part 2】 http://uni.2ch.net/test/read.cgi/sci/1379939285/ 宇宙の質問が書き込まれたら誰かが即答するスレ 18 http://uni.2ch.net/test/read.cgi/galileo/1378498847/ ◆決定論:脳は物質だから意識は必然に過ぎない216◆ http://awabi.2ch.net/test/read.cgi/philo/1380389635/
79 : >>76 たしかにバカだな。 「バカに話しかけたところでまともな答えが返ってくるわけが無い」 という事を分かっていないという点では。
80 : そして誰も話しかけるものはいなくなった。
81 : 哲学版からきた人は、ここで多少なりとも実証的態度を身に付けるべき
82 : 実証的態度()
83 : ちなみに、ここにいる人は強いAIできるはずだとおもってるよね? 哲学板じゃできない派がおおかったんだけど。
84 : 哲学板とこっちじゃ強いAIの定義が違うんだろうな
85 : シンギュラリタリアンが実証的態度を口にするというのも面白いな。 それは例えばあれか? 実在しないけどあたかも実在するかのように思われているものについて、 その物理的発生機序を考察する。とかか?
86 : ニワカや一部のエセ哲学屋にとっては物理的に精神が説明ついてしまうと困るからな 特にエヴァ以降、哲学()なバカが増えて困る >>84 「定義」の意味からして違うというw
87 : >>86 >物理的に精神が説明ついてしまう ほう? じゃあ、賢い君にはそれを科学技術で再現できる目途も付いてるわけだ。 (さもなきゃ、「物理的に説明がついてしまう」とは言わないからな) ご高説願おうか。
88 : その前に「精神」てものがあるかという問題が…
89 : >>86 いや別に まともな哲学屋なら、物理的に説明がつこうがつくまいが関係ない、と言いたい 哲学は物の見方や考え方などの探求だからな(哲学板では違うらしいが) まあ>>86 のようにも取れるような俺の書き方も悪かったと思う ちなみに俺はシンギュラリティだの強いAIだのは実現するか懐疑的で、起きたらオモシロイナという立場 むしろそれを追求する過程で発見されるであろう諸事象の方に興味がある
90 : ちげえ>>87 自レスしてどうするwww
91 : 精神などと言うものは実在しないが「情報統合的なもので、処理単位同士の高度で綿密な連携が求められるのは疑う余地がない」らしいぞ。
92 : 哲学板ではIDないからなwwwwww 自演お疲れ〜(笑) あっちはこんなのばっかなのか
93 : ごめんちがったwwwww
94 : いくら説明しても その理屈じゃダメだ、その理論じゃダメだ 単なる妄想だ、意味が無い、まともな答えじゃない、実現性がない こればっかりで、じゃぁお前はどうしたらできると思う?には答えられないんだよな。
95 : そう、強いAIに求められる機能はまず妄想力 全CPUパワーの90%を使って、強引な推論と緻密な検証を行えば 人間並みになるはず
96 : 人間の脳の使用率が100%行くことがあるのかどうか知りたい
97 : ないだろ 記憶領域と処理領域が分けられてないんだから
98 : >>94 どうしたらできると思う?には答えられないとは思うけれど、「どこがダメ」「何でダメ」というのを具体的に 書くのは必要最小限だろうとは思う。 AIが「不可能」だと主張するのなら、それを証明するのが筋だよね。むしろそっちの方が難しいとは思うけど。 フレーム問題以上、不完全性定理以下の難易度といったところか。
99 : 不可能と断言するのと肯定派の問題点を指摘することは全く違う。
100 : ニューロンの組織はパターン認識してるんだから フレーム問題なんか関係なくね?
101 : ヒント 思い込みたい対象を確信してしまう、故に激しく妄想なのに現実であるように 語り一歩も引かない。信じた対象を疑うことができない症状。 具体的な比喩が理解できなくなる、比喩が比喩だと理解できなくなると 冗談や皮肉が分からなくなる、下手糞なその比喩なら完全に誤解してくれる。 一度その誤解ができれば前提から訂正してもそのネタに謙虚な態度には成れない。
102 : >>93 何か知らんが乙。 疑心暗偽は程ほどにしといたほうが良いぞ。身体に悪いからな。 あと人は悪いことをするとき「どうせ他のヤツもやってる」と思い込む。ってじっちゃんが言ってた。 >>94 「そんなの簡単にコピーできるわ!」って言いながら1万円札を持ってコピー機に走るヤツが居たら、 「無理無理。それ無理だから」って言わないか?それとも陰でこそこそ笑うタイプか? じゃあお前はどうしたら1万円札をコピー機で複製出来ると思う? と聞かれても「現状では無理」としか言いようが無いわな。 >>96 >>97 それまだ答え出てない。 1%しか使ってないとか言われてるのは俗説で、実際には脳はひっきりなしに動いてる。 何をしてるのか良く分からんが。
103 : >>102 「コピーできないよ」『何で?』 「何でもだよ!(根拠なし)」ここまでが今の流れ。 「コピーできないよ」『何で?』 「コピー機には偽造防止機能が組み込まれているから、紙幣をコピーしようとすると停止する。 紙幣には偽造防止技術が採用されていて、コピー機ではコピーできないようなインクや図柄、 ホログラムが使用されている。」 ↑これが普通の議論。 「コピーできないよ」 『何で?』 「試してみれば?w何なら1万円札も貸してやるよ」 ↑検証方法を提示している。 >>100 前スレでフレーム問題が出てた。今更感があるフレーム問題とか、平気で出してくるのが不思議だけど。
104 : >>103 >>102 じゃないが、その流れってのは具体的にどのレスのことだ? 少なくとも俺の場合は>>22 や前スレで強いAIは既に稼働していると発言していた奴に対して疑問を投げかけているだけで肯定も否定もしてないな。 ただ「本当に作れるなら証拠を出せ」というだけの話。 「流れ」なんて言葉を使われると懐疑的な意見を述べる者の大多数がAIの実現性を否定していると解釈されかねない。
105 : >>103 > 「コピーできないよ」『何で?』 > 「何でもだよ!(根拠なし)」ここまでが今の流れ。 mjdsk 具体的な話が出てきたら>>69 みたいにちゃんと検証してあげてるのに。 むしろ抽象論に逃げてるのはシンギュラリタリアンの方じゃ無いか? 「コンピュータに研究させるなど簡単」 「どうやって?」 「好奇心を実装すればよい」 「コンピュータに好奇心ってそれはどんな物?」 「属性を分解して抜けたものを見つければよい」 「その属性はどうやって抽出するの?欠落はどうやって見つけるの?」 (回答なし) 主にこんな流れがほとんどだったと思うが。
106 : フレーム問題が出てくるわけだ
107 : 105がフレームに捉われているのは理解できる。
108 : 自称AIの設計者は結局失踪したみたいだな。 >>105 の最後の質問に答えられない時点でそれは設計とは言わない。単なる妄想でしかない。 フレーム問題以前の話だよ。
109 : >>103 の概念形成説明の抽象水準表現が過度に具象的 また>>103 は逆に過度に抽象的な表現となる。 君のことだよ。 >>108 ??
110 : >>109 2行目アンカミス?
111 : >>103 原理は不明だが、少なくとも人間はどうにかしてフレーム問題を実用上問題無い程度に解いている。 対して、機械は未だに人間の助け無しにフレーム問題を解けない。 (人間が枠を設定してやってるから、フレーム問題を回避できる) 君は >今更感があるフレーム問題 などと言っているが、 機械が【自発的に】【人間と同レベルの水準で】フレーム問題を解けるようになったとは初耳だな。 その機械はどこにある?
112 : 人工知能の歴史をおさらいしとくと フレーム問題が提唱された60年代ってのは、今と比べると信じられないほど CPUも記憶装置もネットワークも性能が低かった 昔はフレーム問題を解かなければ不可能と考えられてた問題でも 計算機やデータ、ネットの力が解決してしまった問題は数しれず そしてその過程で分かってきたのは 我々はそもそも、どういう知性が賢いと思ってるのか、 問題の定義すらまともにできてないということ
113 : 我々が人より賢い人工知能を想定するとき、例えば人には解けないような 難しい問題や、学問上の課題を革新的な方法で解く人工知能を想定してしまうことが多いが そういったものは「既に問題が定義されている課題」なので、実は人工知能にとって易しい部類に入る 本当に難しいのは、普段我々が意識してなくて、問題を定義出来ないような課題。 これがモラベックのパラドックス。 例えば、散歩するとか、雑談するとか、空気読むとか、こういうのはものすごく難しい
114 : >>110 ??????????????????
115 : >>105 前スレで俺が「目的設定の問題」と提案したんだがな 具体的な最適化は試行錯誤だろうから今ここで結論は出せないと思うが、 例えば俺が考えているのは「自己(種)保存」をベースとして、人間が何故新しいものを求めるのかという哲学的問いへの回答の模索が鍵になってくると妄想している アシモフの3原則は本質的にはいいとこ突いてると思うんだよね それをアーキテクチャにブレイクダウンすること自体が俺には難しく感じるが、そもそも先端研究自体が難しいことやってるから越えられる壁なんじゃないかなあと楽観視 具体的な抽出に関しては、俺はソフト屋ではないから初期仕様程度の抽象論になるが、 カントの定義する「傾向性」、パースの定義する「現象学」「規範科学」「カテゴリ」、それを環境最適化のパラメータにするというのはどうか そこらへんが「好奇心」の分解になるんじゃないかと考えてみてるんだがどうだろう ディズニーがAGEシステムの基本になるような自動設計ソフト作ったみたいだし、要素技術はあるんじゃないかな まあ俺は89の通りシンギュタリアンというよりシンギュラリティを目指す過程に出て来る諸問題や新発見を楽しみにしてるだけだから、あまり拘りは無いが
116 : 例えば街角でアンケート取れば、人間らしさとして、好奇心、創造性、感情みたいなのがいくらでも挙げられるだろう こういった要素を持つように振る舞う機械を作ること自体は、たいして難しくない ただし、それを見て好奇心があるか、創造性があるか、感情があるかの判断は人それぞれ 結局それは、人間が好奇心や創造性や感情、というものをなんとなくイメージしてるだけで きちんと定義できてないってことを意味する きちんと定義できてない問題に対し、それを解く機械の図面をカッチリ引けるわけがない だから、生物模倣でない、構成論的な人工知能を作るのはとても難しい そして、定義できてない問題を解く知能に明確な需要などないので、社会的な欲求も少ない そういう意味でも、難しい
117 : >>112 >昔はフレーム問題を解かなければ不可能と考えられてた問題でも >計算機やデータ、ネットの力が解決してしまった問題は数しれず ん? それだって、 「計算機を目的にかなうよう動かすには、どのようにプログラムを書くか?」 「データを取り扱う枠組みはどうするか」「効率的なネットワーク形成を行うにはどうするか」 といった問題の肝心要の部分は、依然として人間が決めてるだろ? どれもある種の最適化問題を半ば自動的に機械に解かせているんだろうが (ハードウェアの進歩によってある程度力押しで解かせる事が可能になったんだろうが)、 最適化の方向性を与えているのはやはり人間だろ? そこまで人間の介在無しにできる機械の実例を、私は寡聞にして知らない。 ところで、人間が「或る定義できてない問題」を「定義できるようになった」場合、それは結局のところ 人間が「或る処理の枠組みを見つけた」「或る当面の課題に対するフレーム問題を解いた」という事だと思うが、 そういう認識でよろしいか?
118 : >>112 その解決してしまった問題ってフレーム問題ちゃうんちゃう? でも、そうなんだよなあ。 問題の定義すら出来てないのにコンピュータが人間の知性を超える。 というから何を指してるのか聞いてるんだが、何をしたいのか正直未だに分からん。 >>114 アンカミスじゃ無いのか。それは失礼。 >>115 ちょっとテツガク的過ぎてよく分からん。 もうちょっと工学的に説明してくれんかな。
119 : >>116 やめて、仕様もシステム設計も固まってないのに出図期限だけ決まってる仕事の惨状を思い出すwwwwwww
120 : コンピューターって、中で実際にやってる事は四則演算と論理に基づく条件分岐だけやろ? 人間もコンピューターの一種に過ぎないとしたら、四則演算と条件分岐だけでどうやって芸術的作品を作れるんだか、不思議やわぁ。
121 : >>118 申し訳ない、俺は一応C++扱えて100MHz〜5GHzの送受信とデジ/アナ、ACやDCは漠然と把握してるが、所詮は機械屋なのでソフト屋的な考え方は身についてないんだわ 趣味で哲学や脳科学やってはいるが、>>115 でも書いたようにそれをソフト仕様レベルまでブレイクダウンするとこまでは理解度が追いついていないんだ あと今酔ってるから文章おかしくなるかもしれない その前提で、できる限り工学的に咀嚼してみる。長文失礼。 「傾向性」というのは日常語で言うと「好み」や「衝動」が近いかな。これは学習に相当する蓄積機能に加え、蓄積されたデータを単純化してカテゴライズ(後述)し、アクティブフィードバックする必要があると思う オートポイエーシスというオートノミーの流れを汲む自己言及システム論があって、この考え方をソフト的に反映すると経験(蓄積データ)から好み(傾向性)を形成することは可能なのではないかと考えている 書くと2行だが簡単なことじゃないとは思うよw というか自己言及的ってのは入力によって基礎コード自体を書き変えるってことだから、正直想像もつかないw (長すぎたので続く
122 : >>118 パースの理論は俺もまだ勉強中の身だから偉そうなことは言えないが、例えば子供の発達心理学でも「動物」というカテゴリの下位に「犬」→「柴犬」みたいな大まかな把握があるじゃない それをより系統的に、「青」→「形状」から男子トイレを認識するなどの記号認識機序を10段階に分けていたりするのね。これが記号学的なカテゴリ論 更に規範科学においては、日常語では「価値観」や「道徳観念」といったところに踏み込んでいる 価値観の概念そのものはその後クワインらが展開しているけれども、先の記号学的カテゴリ論を踏まえれば、今の画像認識技術からすれば基礎技術はできているのではないかと思っている あとはそれらのカテゴライズ手段と記憶と再帰的処理の問題が、言うは易しの壁ではなかろうか パースは元々数学者だから、「定義」と「分類」というものに強く拘っていた人だから、ちと古いにせよブロック図設計上で非常に参考になるんじゃないかと考えているんだ カテゴライズそのものはパースの段階ではまだ曖昧かもしれないが、今では発達心理学と脳科学のコラボでカテゴライズの機序は徐々に明らかにされているから、遠からず処理手順は明らかになるのではなかろうか、と思う これで不足なら個別に指摘してくれ、不勉強だがわかる範囲でレスる
123 : >>68 遅レススマソ。 >古い? いや、古くないな。 単なる機能シミュレーションでなくて、 進化あるいは発生学的なシミュレーションという事であれば。 その方法が強いAI第1号への近道かもしれないな。 「どのような淘汰圧を設定すれば、望む方向への進化を加速できるか」という問題があるが、それはそれで興味深い。
124 : >>111 フレーム問題というのは、論理的な問題で現実的な問題ではないですよ。解法もいくつも提示されています。 まぁ、これも論理的なもので、それが直接すぐに人工知能の成功に結び付くものではありませんが。 むしろお尋ねしますが、フレーム問題が原因で、機能しなかった人工知能なりコンピューターなりの具体例を ご存じですか?フレーム問題さえ解決できれば、強いAIが作れるのに、といった声を聞いたことがありますか? もちろんこれは修辞疑問ですがね。
125 : シンギュラリティ後のユーモアとかジョークってどんなのなんだろう きっと今の人類には高度過ぎて理解できないんだろうな
126 : >>123 レスdクス 面白そうなんだけど、 淘汰圧どうすんのとか発生の方法とかちゃんと発散するのとか、 意識とかそれでほんとに出来んのとか問題だらけ^^;
127 : 100年後の人間やAIがこのスレを発見したら 原始人が空を飛ぶ方法を議論してるように 見えるのかなぁ?
128 : >>121 丁寧にありがとう。 > 「傾向性」というのは日常語で言うと「好み」や「衝動」が近いかな。これは学習に相当する蓄積機能に加え、蓄積されたデータを単純化してカテゴライズ(後述)し、アクティブフィードバックする必要があると思う 「好み」については学習がある程度関係しているだろう。 しかし別の環境で育った一卵性双生児が、それでも似通った好みを持つことも知られているので先天的な要素もあるのかもしれない。 「衝動」についてはこれだけでは説明がつかないな。動物は自然に生殖するが、それは学習によるものではないだろう。 何か先天的なものが根源にあるはずだが、それはまだ良く分かってない。 > というか自己言及的ってのは入力によって基礎コード自体を書き変えるってことだから、正直想像もつかないw 挙動をデータ化して処理側はそれを参照するという方法も考えられるが、どこまで柔軟性を持たせておくかと言うのは難しい問題になるな。 あらかじめ用意した挙動を組み合わせることしか出来ないだろうから。 自分自身を書き換えるというのは技術的には可能だけど、意味のあるセマンティクスを維持した上で目的に沿った拡張を行わせるというのはちょっと困難。 >>122 > パースの理論は俺もまだ勉強中の身だから偉そうなことは言えないが、例えば子供の発達心理学でも「動物」というカテゴリの下位に「犬」→「柴犬」みたいな大まかな把握があるじゃない > それをより系統的に、「青」→「形状」から男子トイレを認識するなどの記号認識機序を10段階に分けていたりするのね。これが記号学的なカテゴリ論 これはちょっと実装が難しいと思う。どれぐらい抽象化するのかが定式化できないように思える。 あらかじめ人間が基本的なカテゴライズを用意するしかなさそうだ。 そしてたぶん「これが正解!」という結論はなかなか出ないだろう。 > 価値観の概念そのものはその後クワインらが展開しているけれども、先の記号学的カテゴリ論を踏まえれば、今の画像認識技術からすれば基礎技術はできているのではないかと思っている カテゴライズに画像認識技術を援用できる。というのはちょっとピンと来ないな。 だいぶ分かり易くなった。色々参考にはなりました。ありがとう。
129 : >>117 >ところで、人間が「或る定義できてない問題」を「定義できるようになった」場合、それは結局のところ >人間が「或る処理の枠組みを見つけた」「或る当面の課題に対するフレーム問題を解いた」という事だと思うが、 >そういう認識でよろしいか? その場合、当面の課題に対するフレーム問題を解いたのではなく、当面の課題からフレーム問題が取り除かれた、 という理解が正しいと思う。 ちなみに「或る定義できてない問題」を「人間の知性の範囲」に置き換えれば、 そのまま>>112 ,>>113 の議論になる。 >>118 >その解決してしまった問題ってフレーム問題ちゃうんちゃう? そうなんだけど、逆に言うと、じゃあ今フレーム問題にハマる問題って何?ってことになる 有名なロボットが爆弾運ぶ問題でも、今はフレーム問題にハマらず解けると言われてる。 ttp://www.h5.dion.ne.jp/~terun/doc/frame.html ロボットが美術品を観測しながらちょっと動かせば、爆弾が動いて他のものが動かないことはすぐ理解できる。 専門的に言えば、これは「人間ではなく環境自身が計算を行ってる」ということを意味する。
130 : 60年代の人工知能研究者は、環境が知能に果たす役割をよく理解してなかった(現在の一部の哲学者もそうかもしれないが) だからフレーム問題みたいな、現実にやってみればすぐ解決するのにも関わらず、 頭の中だけで考えたような非現実的な問題が出てくる。 ロドニー・ブルックスはサブサンプションアーキテクチャで否定したのは、そういう身体性の軽視。 以前、ルンバが敷居を超えられる知能を持てるかって話が出たが、結論から言うと無理。 その知能を支えるためのセンサもアクチュエータも、ルンバは持ってないから。 例えば赤ちゃんがルンバの中で育っても、そのルンバは人間と同じ知能を身につけることはできない。
131 : >>129 今現実的にフレーム問題が問題になることは無いだろうな。必要ないし。 「人間ではなく環境自身が計算を行ってる」というのは理解しにくいなあ。 どういう意味なの? >>130 少し違うと思うんだよなあ。 それって「身体性」というフレームを作ってるだけだから。 あと人間の身体にサブサンプションを載せたらどうなるか?という話もしたと思うんだが。 もっともサブサンプションはほんの入り口でまだまだこれからが本番。 と言うんであれば面白そうではある。
132 : 【人工知能】ゆっくりをねらえ!技術的特異点講座 補講3 http://www.nicovideo.jp/watch/sm21953193
133 : >>7 > 脳を必要充分にシミュれば勝手に創意工夫するだろう。という意味ね。 > 問題は何が必要充分なのか?だろうな。 おお、物解りが良い。 そして、どこまで模倣するかの話題は他の段落で進行しているから、そちらにまとめるとする。 > 意識のような主観的側面は外部から観測出来ない。というのが結論だということだね。 結論も何も、周知の事実じゃないか。 その後に、それを踏まえたとしても「仮説通りのシステムが物理的側面のみで実装されている場合であれば、実証可能」と言っている。 少なくともこの世界が唯物論であれば、主観的側面が観測出来なかろうが、実証出来るということだ。 わかるかね。
134 : 日本語がおかしいな。 ×この世界が唯物論であれば ○この世界が唯物であれば
135 : >>129 具象化傾向(concreteness)と過包括(over-inclusion) http://med.m-review.co.jp/magazine/detail1/J28_11_3_35-40.html 君が放つオーラについて
136 : >>124 答える前に、今一度、フレーム問題がどういう問題かという事を念のために確認しておく。 フレーム問題とはとどのつまり、 「計算すべき事柄が無限になり得る、もしくは有限であっても利用できる計算資源が逼迫するほど計算事項が多数である時」 「どこまでの範囲の事柄を計算するか」「どこで計算を切り上げるか」「どの事柄の計算の優先度を高くするか」 という問題だと認識しているが、 ずいぶん前に起こった2000年問題だって、フレーム問題の一例だと言える。 1970年代頃に事務処理システムや経理システムを組んだエンジニア達は 「いくらなんでも21世紀を迎える前までには、今組んでいるシステムはお払い箱になっているだろう」と考え、 計算資源の節約のため、年号という事柄を下2ケタの範囲しか計算しない様、処理の枠組みを設定した。 ところが、エンジニアの想定を超えてシステムが長く利用されたため、「年号」に対するフレーム問題が生じた。 幸いにして人間が処理の枠組みを設定しなおすのが間に合ったため大事にはいたらなかったが。 2000年問題に限らず、「設計当初は想定外だった事柄」は多数発生し、そのつど、人間によるプログラムアップデートを要してきた。 で、私はこの種の問題を機械が【人間の手を介さずに】解決した例を知らないのだが、君は知っているのかね?
137 : >>129 >「人間ではなく環境自身が計算を行ってる」 について。 人間の受精卵が新生児になるまでのプログラムは全ゲノムが持つ高々700〜800MBほどの情報量に収まっているわけだが、 新生児を形作る仕組みがこれほどコンパクトに収まっているというのは、考えてみれば驚異的な事だ。 依然誰かが言ってたようにフラクタルの原理を応用して複雑な構造を少ない情報量で作っているというのもあるだろうが、 『子宮』という、温度なり溶媒の組成なりが厳密に調整されている『環境』に依存する事で、情報量(計算量)を減らしている、 というのもあるだろう。 腹部への物理的ダメージ、あるいはニコチンやアルコールなどの生化学的なダメージで 子宮と言う環境が乱されると、新生児誕生までのプロセスは正常に行われない。 「環境自身が計算を行ってる」というのは、「環境に依存する(よりかかる)事で、より少ない計算量でより良い結果を得る」 という事だと私は解釈しているが、どうだろう?
138 : >>137 セルオートマトン・ライフゲーム調べてみれば? 世界が物質に対して行っている処理(=計算)は常に変わらない 模様が発展しているように見えるだけ、残る性質の模様が残っているという当たり前の結果が起きる
139 : >>132 今回も面白かったな。 ……その動画のうp主は、このスレを読んでいたりするのかな。 読んでいたとしても、あまり気にせずに当面今まで通りのスタンスで気ままにやってほしいもんだ。
140 : >>131 >>139 説明が足らなかった。すまん。 >「環境自身が計算を行ってる」というのは、「環境に依存する(よりかかる)事で、より少ない計算量でより良い結果を得る」 だいたいあってる。 人工知能と並行で誕生した分野として認知科学とかがあって、 ギブソンのアフォーダンス理論なんかも関わってくる話だけど、 我々の知能は環境に最適化されていて、環境と切り離して取り上げても意味が無い という考え方が80年代くらいから出てきた。で、その時に外界を操作する身体が必要不可欠になる。 本来のフレーム理論では、アクションを起こす前にロボットがいろいろ考えてしまって爆弾が爆発するわけだけど、 身体性のある知能ならば、まず車をちょっと動かしてみて、何が動くか動かないかを観測することで 間接的に環境に計算させる。その上で爆弾を運び出せば良い。 人間はそういう省力化をよくやる。身体性は、それが知能の本質の一部だ、という考え方。
141 : >>138 知ってて言ってるんだが、それが何か? で、セルオートマトンやライフゲームは万能チューリングマシンと等価なわけだが、 君はあらゆる万能チューリングマシンの動作結果を 「当たり前の結果」と言い切ってしまうほど予測してしまえる方法を何かご存じで?
142 : >>136 横槍になってしまうけれど、それは人間「でも」フレーム問題を解けなかった例に当たる。 2000年問題なんかは、時間の経過が、本来計算していなかった問題点を炙りだしたと言える。 これも広く含めれば「環境(=時間の経過)が計算した」例になる。 >で、私はこの種の問題を機械が【人間の手を介さずに】解決した例を知らないのだが 人間が考えた範囲の事柄を機械が超えた例としては、この前の電王戦で三浦六段に対して新定跡で返した GPS将棋なんかが当てはまるんじゃないかな。 大枠では将棋という限定された環境であったけど、とはいってもその広すぎる解空間の中で 人間よりもコンピュータがよく探索できた例。
143 : >>142 >>「環境自身が計算を行ってる」というのは、「環境に依存する(よりかかる)事で、より少ない計算量でより良い結果を得る」 >だいたいあってる。 了解した。認識に齟齬を感じたら、改めて確認させて頂く。 >>で、私はこの種の問題を機械が【人間の手を介さずに】解決した例を知らないのだが >人間が考えた範囲の事柄を機械が超えた例としては、この前の電王戦で三浦六段に対して新定跡で返した >GPS将棋なんかが当てはまるんじゃないかな。 なるほど、そう言えるかもしれない。
144 : あと非常に個人的なことを言わせてもらえば(まあ異論もあるだろうが) 特に哲学者(>>129 )が知能について嘯くことは、ほんの少数除いてあまり人工知能の作成には役立たない。 彼らは数学という現代的な武器を装備してないし、動的な系も扱えないから、物事の本質を見失いがち。 可能か不可能かで定式化をすれば、「この世には真か偽か判断できない問題がある(=ゲーデル)」し 「真か偽か判定できる問題は時間かければ必ず計算できる(=ビジービーバー関数)」し 「計算にあたって影響をおよぼす出来事は事象の数だけある(=フレーム問題)」のだけど 現実的には「どれだけの計算資源があって」「問題がどれだけ難しくて」 「ある問題を解くのにどれだけ資源を使えるか」という見積がないと空論になる。 人間の目が何を見て、手がどういう仕組で何をいじれて、という話を抜きに人間の知能は語れない。 「土から離れては生きられないのよ」っていうアレ (計算オーダーの話はまだ本質的に意味があると思うけどね)
145 : The First Carbon Nanotube Computer http://www.technologyreview.com/news/519421/the-first-carbon-nanotube-computer/
146 : >>137 子宮以前に胚という工場の複雑さもあるよ。 >>140 まずは行動して、動的な影響を見れば良い。と言うことだね。 刈り込みの方法としては良いアイデアかも知れない。 でも「人間ではなく環境自身が計算を行ってる」という表現はあまり的確でない感じがするな。 これだけだと無機物が主体的に計算しているかのように取れるから。 身体性が知性に影響していると言うのはたぶんそうだろう。 人間の場合さらに>>122 が触れているような社会性や自然との相互関係も影響していると考えられるのでもっと複雑だと思うが。
147 : 無機物が主体と言っても間違いじゃないだろ パソコンに計算させるのと同じ
148 : 光学センサーの前に魚を持ってくと匂いを嗅ごうとしたり食べようとする信号が出力される また、猫じゃらしをセンサーの前でフラフラさせると興奮状態になる 季節によって発情の信号が出力される などなどができていなかったら「猫の脳をシミュレートした」とはとてもじゃないが言えないんじゃないの? 人間の脳ももちろん同様にね まあこの話はもう終わってるみたいだがw
149 : >>136 さすがに2000年問題をフレーム問題に含めるのは、定義から外れすぎでしょ。 今度あなたがフレーム問題という言葉を使う時には、俺のなかでは2000年問題もフレーム問題に 含まれます、と宣言してから使ってくださいね。
150 : >>147 話の趣旨がわかってないだろ? パソコンに計算をさせてる主体はユーザだわな。 少なくともウチのパソコンは「僕二次方程式解きたいんですけど」と言ったことはないわ。 主体的に計算するハンカチ。とか主体的に計算する椅子。とかシュールすぎるだろ。 まあシンギュラリタリアン的で面白いが。
151 : >>149 じゃあ、君の『フレーム問題』の定義を読ませてもらえないかな。 Wikipediaとかの引き写しじゃなくて、君自身の言葉で。 もっとも、それがスレ住人の多くに支持されるものかどうかは読んでみるまで分からないがね。
152 : >>148 もっと単純に猫の身体に繋いでニャーと鳴くかどうか見て見れば良い。 ていうか研究者本人に聞いてみれば良いよ。 「先生、猫の脳のシミュに成功したんですって?すごいですね!」 と言われたら本人が一番戸惑うと思うわ。 「全然ちげーし。俺そんなことしてねーし」と言うだろう。
153 : 世界が機械的だとしたらそこには主体も客体も無いと思うなあ。 そこにあるものが便宜上「主体」とか「客体」とかいうシグナルを使うことはあるかもしれないけど。
154 : 亀レスだが>>128 へ >「衝動」についてはこれだけでは説明がつかない 「傾向性」はカントの語で、これに含まれる衝動はそこでいう本能的衝動は含まれないんだ むしろ>>128 の云う本能的衝動こそ初期設定されるべきもので、感性的或いは悟性的な衝動より簡単なんじゃないかな >自分自身を書き換えるというのは技術的には可能だけど そこよね、生物全般(特に人間)の環境適応性をどう解釈して実装するかという点には高い壁を感じる >どれぐらい抽象化するのかが定式化できないように思える パースの提唱した記号の10個のクラスというのは勁草書房パース著作集2巻「記号学」から俺が要約して引用すると 1.性質記号(例えば「赤い」という情態) 2.類似的単一記号(例えば固体としての図形) 3.名辞的指標的単一記号(例えば思わず出る叫び声) 4.命題的単一記号(例えば風見鶏のように、直接経験の対象であり実働的事実に関する情報を与えるもの) 5.類似的法則記号(例えば事実的な個性を除いた図形のように、実例と結び付けられた一般法則) 6.名辞的指標的法則記号(例えば指示代名詞のように対象から実際作用を受けている一般法則) 7.命題的指標的法則記号(例えば町の呼び売りの声のように実例それぞれが対象に関する一定の情報を供給する一般的なタイプないし法則) 8.名辞的象徴記号或いは象徴的名辞記号(例えば普通名詞のように一般観念の連合によって対象と結合する記号) 9.命題的象徴記号或いは通常の命題(一般観念の連合によって対象と結び付けられ、解釈項が命題的象徴記号を命題的指標的法則記号と見做すもの) 10.論証(解釈項がその対象を法則を通じて後続してくる記号として表意するような記号) となる。(7以降は説明が難しいので俺の要約が間違ってるかもしれない…他に退化的記号なんかもあるし 7以前に関しては「認識のカテゴリ」としてあらかじめ人間が用意する、で俺の認識と一致している そこのどの程度のフレキシビリティを準備するかという点について、画像認識で使ってる曖昧さの処理の基本的な考え方が援用できるんじゃないかと考えている次第 (そのまま使えるとは思っていない
155 : >>154 ちょっと読んだだけで玉案宝典の動物の分類を思い出して頭痛くなった。 後でゆっくり読むわ。
156 : >>155 俺も読んでて頭痛くなるw
157 : >>146 > でも「人間ではなく環境自身が計算を行ってる」という表現はあまり的確でない感じがするな。 > これだけだと無機物が主体的に計算しているかのように取れるから。 入力があるときに出力を返すものを大きく分けると計算という。数学でいう関数 この場合、主体がどこにあるかは、定式化には影響しない 「人間が環境に計算コストを負担させてる」という方が通りが良ければそれでもいいし 「環境が人間に情報を吐き出させて返している」と捉えてもいい 人間も環境も計算機であり関数と捉えると、 数学的には、というか唯物論的には等価 (人間の方が単純な関数になるが)
158 : >>136 支離滅裂
159 : >>158 その程度しか書けないワンパターンレッテル貼り野郎は消えろ。
160 : >>159 エンジニアは計算範囲を自ら設定したんだろ? それが出来たということはフレーム問題は起きてないよな? そんで、その後で起きたトラブルはそれはそれで別問題なのよ...。
161 : そうならそうと初めから書かないと、文句を言われても仕方ないよね。
162 : >>159 めんどくさいなぁ。多分、>>66 の中では、>>158 も僕になってるんだろうな。 僕は>>124 = >>149 だけど>>158 じゃないですよ。 >>151 僕の定義なんてどうでもいいんですよ。Wikipediaでも別に困らないし。 重要なのは、どんな定義によっても2000年問題はフレーム問題には含まれませんし、あなた以外の 大抵の人はそう解釈するだろうってことです。 フレーム問題という文脈で2000年問題を出したら、まともな人は笑うとか怒るとか呆れるとかしますよ。 あなたの考え(というか思いつき)以外で、2000年問題をフレーム問題であると述べている論文とか 文書とかがあります?ないですよね。 ついでにツッコミどころを書いておきましょう。以下について真実か否か調べてみてください。 「フレーム問題が話題になった頃は、再帰できる言語はありましたが、基本的にコンピューターのCPUは1つか2つでした」 フレーム問題とは直接関係ないけれど、80年代中ごろには、こんな機械が使われるハッキング(クラックではない)があったそうな。 ttp://anant-lifespeakswhenyoulisten.blogspot.jp/2010/06/some-light-reliefhardwaresoftware-trade.html 面白いですねー。
163 : フレーム問題と言っても色々な捉え方があるからややこしいな。 AIだけの問題とする立場と人間にもあるとする立場がある。 また、間違ったフレームを採用したことに気付かないという側面と、どのフレームを採用するか決められないという側面、フレームを列挙すること自体が困難という側面がある。 範囲を広く取った場合、Y2K問題は人間が間違ったフレームを採用した。と考えることも出来なくもない。 ちなみに人工知能学会のフレーム問題の説明 http://www.ai-gakkai.or.jp/whatsai/AItopics1.html たぶん書いてるのは松原さんかな。
164 : >>151 http://u1sokuhou.ldblog.jp/archives/50411146.html
165 : 「考え方によってはフレーム問題の一例と捉えることも可能である。」くらいに控え目に言えよ、とは思うけど、 一般的な理工学に加え(それらだけでもかなり分野は広がるし)、哲学統計学論理学なんかが入り乱れるここのスレでは、一般的認識を根拠に切り捨てるような態度はちょっと無骨じゃないかな、とも思ってしまう。
166 : >>162 ? >>158 に対して言った事に、 なんでおまいがしゃしゃり出てくるんだ?
167 : 強いAI?そんなもんいらないだろ 中国やインドなど人口の多い国の貧困層がまともな教育を受けるようになった 瞬間がシンギュラリティだw
168 : 頭の弱い俺っちには世の中とっくにシンギュラリティだよ
169 : 確かに確率上は中国やインドに天才は数多くいるだろう。 だがそれらの人間が通常の1000倍の知能を持っているかというと怪しい
170 : 生物的頭脳のその先にこそシンギュラリティはある
171 : >>165 おわかりかと思いますが、 フレーム問題があるから強いAIは実現できない ↓ 強いAIができていないからフレーム問題は現時点では解決されていない というのは、トートロジーであって、何も言っていないに等しいんです。 実際の所、フレーム問題を解消することは既にできているし、フレーム問題が原因で実現 しなかったAIというのは存在していないと言ってもいいし、実際の所、強いAIの実現に向けて フレーム問題を解消しようとしている人は、現在では極めて少数と言ってもいいと思います。 何故かというと(これもご存じかと思いますけど)、並列計算、乱数や確率を使ったアルゴリズム、 コネクショニズム、ニューラルネットワーク、アクターモデル、GA(どれも手垢がついた言葉 ですが)などによって、一つのCPUが正しい答えを出す必要は必ずしもなくなったからです。
172 : >>171 > 実際の所、フレーム問題を解消することは既にできているし、フレーム問題が原因で実現 > しなかったAIというのは存在していないと言ってもいい それはつまり誰も強いAIを作ってない。というトートロジーだね。 まあまあのユーモアセンスだ。
173 : 人間の脳どころか、どんな下等生物でさえもフレーム問題で困っていないのだから そんな問題なんか大した事はなかろう
174 : >>171 違う、そこじゃない。 フレーム問題自体はCPUの数云々以前に、自分で考える力のない人がひっかかるただの子供騙しだよ。 俺が無骨だと言ったのはフレーム問題を切り捨てることじゃなくて、2000年問題はフレーム問題という解釈を切り捨てることね。
175 : >>174 すごいな。 ジョン・マッカーシーを自分で考える力の無い人と言い切るのか。
176 : >>174 仮に切り捨てなかったとしても、何かの発見が得られるのかという疑問があります。 フレーム問題にしろ、「2000年問題はフレーム問題に含まれる」という解釈にしろ、思考や議論を 停止させる悪いミーム(とでもいえばいいのか)にしか思えません。 「2000年問題はフレーム問題に含まれる」か否かという議論が発展的に解消することによって、 この件以外で多様な議論が期待されるとか、「2000年問題はフレーム問題に含まれる」人が 救われるかもとかいうことですかね。 >>175 考える力がない人が見出されました。 ジョン・マッカーシーは、後に45年間も通用する「自分で考える力のない人がひっかかるただの子供騙し」を 「考え出した人」です。騙された人ではありませんよ。
177 : フレームが重ならない二者間での価値の共有が困難だということが解った気がする。
178 : >>176 ほほう。 人工知能学会も45年間子供騙しにひっかかってる自分で考える力のない人の集まりか。 それでは強いAIの実現も難しそうだな。 ていうかフレーム問題が既に解決されて来たと主張するところを見ると本質を理解してないんじゃないか?
179 : >>178 辞書に馬鹿げたことが書かれてるからと言って、辞書を編纂した人が馬鹿ということではありません。 しかも「集まり」って…… Webページの1ページに書かれてるからといって、全員を一緒くたにしないでくださいよ。 あなたに思考能力がないことを学会のせいにしないでくださいな。
180 : フレーム問題はNNでどうにでもなるでしょ どうせ人間に細かい超AIの思考を設計するなんて無理だろうしエクサ級のスパコンにでもNNを構築すればいい
181 : だいたいエラい人が云々とか言い始めちゃうこと自体、思考力の低さの現れ 思考力があればエラい人なんて偶像にすがる必要はない
182 : それと、話してる間に話の焦点を元々の話題自体から話者語り手に移しちゃう これ、思考力のない奴の悪い癖な
183 : >>179 読むべきところを間違えてるぞ。 一番大事なのは最後の行だ。 とりあえず既に解決されたフレーム問題の例を教えてくれ。 本当にフレーム問題なのか検証してあげるから。
184 : しかしこの程度のことも読み取れないとは随分お粗末な「自分で考える力」だな。
185 : >>183 検証してくださらなくても結構ですので、ご自分でお調べになって発表なさってください。 人工知能学会でも「と」学会でもWebページでもお好きな所で。
186 : >>185 要するに何も無いのね。自分でも、 >>その解決してしまった問題ってフレーム問題ちゃうんちゃう? >そうなんだけど こういっていることだし。
187 : フレーム問題なんて「タイムアウト」これだけで解決なんだがな。。。 下等生物ですらフレーム問題なんて犯さないのに。。。 タダの詭弁だろw
188 : 起こさないの間違いだったw
189 : それちゃうちゃうちゃうんちゃう?
190 : >>186 いや、それは別の人です。 >>174 を書いたのは別の人で、>>176 は僕というのは、書き込みの構造からわかるかと思いますけど。 てかマジで自分で調べてくださいよ。強いAIにお強くて、フレーム問題の解法をこんなスレで 検証「してくださる」程有能な方なら。 今は日本で専属で強いAI研究とかしようとすると、もの凄い大変(というか無理かもしれない。 もしかしたら、世界的にも専属だときついかも)だし、やってる人も歴史的経緯から少ないので、 自分で調べたりプログラム書いたりしてみると面白いですよ。わりとマジで。
191 : 一方で10年くらいしたら、Googleが人間より賢くなってるってことはあるかも。Googleはガチでやばい。
192 : 図書館は知能を持たない
193 : 今どき小学生でもフレーム問題なんて言わねえよw
194 : >>187 ……で、「どこでタイムアウト処理を実行したら適切か」は誰がどうやって決めてるんだ?
195 : >>180 「NN」はニューラルネットワークを指してるんだろうが、それとて、原理的に出来る事は万能チューリングマシンの範疇内に有る、ってのは理解しているか?
196 : >>194 そんなもんその場その場でAIが決めればいいだろ もちろんタイムアウトする時間を決める思考時間のタイムアウトはくらいは 最初からプログラムしてもよかろう
197 : >>162 >どんな定義によっても2000年問題はフレーム問題には含まれませんし、 >あなた以外の大抵の人はそう解釈するだろうってことです。 ほう? 君がそう言う以前に、>>142 の人とかは >横槍になってしまうけれど、それは人間「でも」フレーム問題を解けなかった例に当たる。 って言ってるんだが。 少なくとも「そう考えているのは私だけ」って事は無さそうだ。 >>160 の人とかは 「最初に設定された枠組に沿ってシステムがちゃんと使われ、課題遂行に支障が生じない限り、フレーム問題は発生していない」 という考えのようだね。 それはそれで結構だが、「予期していなかった問題は別問題」として切り捨てるのはいかがなものかと思う。 私は「予期していなかった事象の発生によりシステムが課題遂行するのに支障をきたす事」も広義のフレーム問題の一種と考えているのでね。 人間のような脳を持たない生物はもっぱら遺伝的進化(突然変異による新たな形質の獲得)によって 「予期していなかった事象の発生」に伴う問題を解決しているわけだ。解決できなかった結果がその生物種の絶滅とも言える。
198 : >>196 そうすると、その、 「最初のタイムアウトの閾値の設定」 如何によっては、 閾値が低すぎて解決まであと一歩のところまで来ながらたどり着けないAIや、 閾値が高すぎて特定のジョブの解決に固執してしまい、より優先度の高いジョブになかなか移行出来ないAIが出てくるわけだ。 ……あれ?、これ、人間でも時々そういう状態に陥らないか?
199 : で、>>162 は >僕の定義なんてどうでもいいんですよ。 と言ってるが、まともに答えるつもりは無い、ってことか。 >>183 の人の問いに対しても「検証してくださらなくても結構ですので、ご自分でお調べになって発表なさってください」とか言ってるな。 何か都合の悪い事でもあるのか? まあ、いずれにせよまともに答えるつもりがなければ、 こっちも、>>162 の以下の問いにまともに答える必要は無いな。 >ついでにツッコミどころを書いておきましょう。以下について真実か否か調べてみてください。 >「フレーム問題が話題になった頃は、再帰できる言語はありましたが、基本的にコンピューターのCPUは1つか2つでした」 君が私の問いに答えない限り、私もまともに答える必要が無いのだから、質問に対して質問で返してやろう。 「『チューリング完全』って言葉の定義を知ってる?」 「1969年にマッカーシーとヘイズがフレーム問題について述べた時、大型コンピューターのCPUは今みたいなマイクロプロセッサーだったと思ってるの?」 で、>>162 のリンクだが、何でどこの馬の骨とも知れないブロガーの丸写しコピペ記事じゃなくてそいつの引用元を直接引用しなかったんだか、理解に苦しむね。
200 : あと、私は別に「フレーム問題があるから強いAIは実現できない」と言った覚えは無い。 「『強いAI』を名乗るからには、【特定の狭い分野以外でも】【人間と同じかそれを上回る水準で】フレーム問題を解決できて然るべき」 とは思っているが。 >>142 の人が言ったような、将棋やチェスといった限られた分野では、AIは既に人間以上に上手にフレーム問題を解いている。 株式相場の予想でも、リーマンショックみたいな大変動が起きない限りは、人間の相場師より株価予想ソフトの方が今ではずっと優秀らしいな。 私の関心事は、マッカーシーとヘイズが最初に提示した狭義のフレーム問題じゃなくて、 広義の『一般化フレーム問題』って事。
201 : >>190 > てかマジで自分で調べてくださいよ。強いAIにお強くて、フレーム問題の解法をこんなスレで > 検証「してくださる」程有能な方なら。 強いAIに強いなどとは言ってない。 そもそも強いAIという言葉自体が曖昧すぎるので考えようが無い。 フレーム問題の解法など検証する気はない。 君の言う既に解決済みと言うものが本当にフレーム問題なのか検証する。と言っているだけ。 フレーム問題にCPUの数が関係すると考えるところをみると相当勘違いしてるだろうからな。 そもそもフレーム問題を厳密に解決する方法などあるわけが無い。 出来るのはどれぐらい適当に刈り込むかと学習によってなんとか回避する方法を考えるぐらいだろう。 > 今は日本で専属で強いAI研究とかしようとすると、もの凄い大変(というか無理かもしれない。 > もしかしたら、世界的にも専属だときついかも)だし、やってる人も歴史的経緯から少ないので、 > 自分で調べたりプログラム書いたりしてみると面白いですよ。わりとマジで。 何の役に立つのか分からんものにそうそう簡単には予算はつかないわな。もっと課題を絞り込まないと。 アメリカあたりなら軍がだまされて金出すかも知れんが。 そんな状況なのに2045年にはシンギュラリティとやらが来るらしいぞ。一部の人によると。 >>200 将棋もチェスも閉空間の問題なのでフレーム問題は発生しない。 完全に計算し尽くせば必勝の最善手があってしかるべき問題。質的には○×と変わらない。
202 : >136 予期しないことまで「支障なく課題遂行できる」のがフレーム問題を解決できるシステムってこと? 広義すぎてよくわかんないんですけど最近そういうのが主流なの?
203 : >136 広義の解釈だとその辺の「石」ってフレーム問題解決してる? 何にも関与せずにやり過ごしてるけど。
204 : てゆーか「課題」とか「遂行」とか言語ゲーム全開だよね。
205 : >>197 > 人間のような脳を持たない生物はもっぱら遺伝的進化(突然変異による新たな形質の獲得)によって > 「予期していなかった事象の発生」に伴う問題を解決しているわけだ。解決できなかった結果がその生物種の絶滅とも言える。 進化と環境の変化は時間的スケールが違います。 多様性を持つことによって、例えば、病原体やウイルスによる全滅を避けられているだけです。 適応の範囲を超えて環境が激変してしまえば、遺伝的進化を待つことなくその種は絶滅するでしょう。 解決というのとはちょっと違いますね。 >>199 >君が私の問いに答えない限り、私もまともに答える必要が無いのだから、質問に対して質問で返してやろう。 > 「『チューリング完全』って言葉の定義を知ってる?」 知ってるとしか答えようがないですねぇ…… > 「1969年にマッカーシーとヘイズがフレーム問題について述べた時、大型コンピューターのCPUは今みたいなマイクロプロセッサーだったと思ってるの?」 今あるパソコンのマイクロプロセッサーで、1969年にマッカーシーとヘイズがフレーム問題について述べた当時の 大型コンピューターの何台分のエミュレーションができるか考えてみて頂きたい。 或いは、京でも天河二号でも構いませんが。 > で、>>162 のリンクだが、何でどこの馬の骨とも知れないブロガーの丸写しコピペ記事じゃなくてそいつの引用元を直接引用しなかったんだか、理解に苦しむね。 元は20年くらい前の紙の本なんですよ。 ttp://books.google.co.jp/books?id=4vm2xK3yn34C&pg=PA260
206 : >>200 > あと、私は別に「フレーム問題があるから強いAIは実現できない」と言った覚えは無い。 あなたが言うところの2000年問題を含むかもしれない「広義の『一般化フレーム問題』があっても、 強いAIが実現できない」とは限らないということですね。 > >>142 の人が言ったような、将棋やチェスといった限られた分野では、AIは既に人間以上に上手にフレーム問題を解いている。 > 株式相場の予想でも、リーマンショックみたいな大変動が起きない限りは、人間の相場師より株価予想ソフトの方が今ではずっと優秀らしいな。 実際のところ、人間の相場師も上手にリーマンショックを乗り越えられたわけではありません。 考えて、忘れて、ご飯を食べて、考えて、ヒューリスティックを使って、ウンコして、決断して、ポジションを 取っただけです。 多様性があるポジションの中で、たまたま激変の中で生き残れるポジションを取っていた人(あるいは レバレッジがかかった投資をしなかった人)が生き残っただけです。
207 : 例えばGPS将棋が名人に勝つ前人未到の定跡を発見したのも、Googleが猫の画像を自動で覚えたのも、 どちらもノイマン型コンピュータ上のアルゴリズムで、60年代の学者が考えた頃と 原理的に何か違う計算手段が出来たわけではない。前者は伝統的な知識表現AI、後者はコネクショニズムの子孫。 ただ、地道な研究の積み重ねと莫大な量の計算パワーが質の違いを生んだ。 そういうことは計算機の歴史上よくある話で。 環境が計算を削減するというのが身体性の話だけど、それは結局計算機でシミュレートできるとすると 「一般化」したフレーム問題による計算量爆発を防ぐことは、人間も動物も計算機にも出来ない。 しかし「実用的な範囲」では、人も計算機もフレーム問題には落ち込まない。 だからまあ、「フレーム問題」という用語は悪名高き「クオリア」と同じで、定義になってるようで 実は全然なってないので、混乱を巻き起こす用語になりやすい。要するに、そのまま考えても思考のムダ。 議論するなら「フレーム問題」のうち、人間にできて計算機にできないことについて、 もっと細かい定義を詰めるべきだろうね。
208 : >>201 > 何の役に立つのか分からんものにそうそう簡単には予算はつかないわな。もっと課題を絞り込まないと。 > アメリカあたりなら軍がだまされて金出すかも知れんが。 だまされてというか、米政府は常にといっていい程AIについての予算を出しています。 というか、米軍が防空網の自動化とか、冷戦下の宇宙開発に金を出さなかったら、今の状況は なかったのではないでしょうか。 まぁ、日本も米国も同じく、「人工知能」とか「推論」という言葉はご法度に近いのかもしれません。 HPCとか、シミュレーションとかいう名目で研究していたりするという。 とはいえ、どこかの敵対的な国や、どこかの企業がやらかしてしまったりするかもしれないので、 常に「今どこまでできるのか」は研究していると思います。(表には出ないので「思います」ですが) 出来ちゃったばあい、米軍はどういう選択肢を取るんでしょうね。結局、大胆な選択肢は取られずに ズルズルと進歩してしまうということになるんだと思いますが。 今の私企業のディープラーニングの流行などは、ちょっと理解がしがたいです。 陰謀論者ではないのだけれど、どこかからお金が出ているのかとか、何だか妙な新たな思想が 芽生えつつあるのかとか、いろいろ考えますね。 > そんな状況なのに2045年にはシンギュラリティとやらが来るらしいぞ。一部の人によると。 カーツワイルによると、人間と区別ができない程度の強いAIができるのは2029年とのことです。 僕は、この年にできるのかという疑問を感じますけど、ありそうななさそうなと思いますね。
209 : >>202 人間は、既存の処理の枠組に問題が見つかったら、たとえそれが予期しなかった事であっても、 新しい枠組を設定しなおして、概ね支障無く問題解決できる。 「予期していなかった事だから解決できません!」とか言ってる人間は、科学の世界に限らず、使いものにならない。 で、強いAIの研究者が達成しようとしているシステムは 「少なくとも普通の人間と同じくらい使いものになる」システムだと思っているのだが、違うのかね? あと、「石」は「生物一般」と違って能動的に環境に応答しようとしているわけではないので、 そもそもフレーム問題を考える必要が無い。 なんで君は、受動的な物体に対してフレーム問題を適用しようと思った? 最初は「課題」「遂行」の部分は「問題」「解決」となっていたんだが、 「フレーム問題」という言葉に既に「問題」という単語が含まれていて読みづらくなりそうだったんで、 「課題」「遂行」という単語を使っただけの事だ。 これを『言語ゲーム』と呼ぶのであれば、君は君自身の語彙の貧弱さを心配した方が良い。
210 : で、>>187 は >フレーム問題なんて「タイムアウト」これだけで解決 とか言ってたが、 「最初のタイムアウトの閾値の設定」についてはどういう解決法を考えているのかな。
211 : >>209 これもまた循環的なツッコミになってしまうのだけど 2000年問題が問題になったのは「人間」にとってであって、プログラム上は仕様上何の問題もなく動いていた、という見方もできる。 つまり、フレーム問題で定義されてる前提となる「問題」、既存の枠組みで発生する問題というのは、 実はあくまで人間が「問題」と考える範囲の問題にすぎない、ということは言える。 ここにいるわたしら、おそらく人間なんで(多分?)、結構人間中心主義的な定義が含まれてしまうのは仕方ないこと。 まあ現状で「普通の人間と同じくらい”人間のために”使い物になるシステム」がある、と言えないことには 同意するけど、問題を人間のやり方で定義し、人間らしく解決することが、一般的な人工知能のゴールというのは ちょっと行き過ぎた定義かな。人工知能というと、もっと汎用的な知能のあり方を求める人もいる。 シンギュラリティの定義するのも、人間らしさを必ずしも含まない、ちょっと別個の知能だと思う。
212 : >>210 タイムアウトは比喩的に考えた方がいいんじゃないですかね。 人間的にみると、タイムアウトというのは、実によくわかる喩えではあるけど。 たとえば、朝起きたら昨日のアイデアをすっかり忘れていたとか、ご飯食べてる間に素晴らしいアイデアと 思っていたものがゴミクズとわかるとか。 一方で風呂入ってるときに、考えていたことについての別方向の見方が出てきたりとかして、脳が必ずしも 線形的に動いているわけじゃないということもわかるとか。 タイムアウトじゃなくても、重みづけするとか、巡回を検知するとか、参照されていないことを検知するとか、 どれも多分人間においては、使われない知識は忘れていくという形で複合的に実現されているとは思う。 もちろん、どれも完璧ではありませんし、情報技術で使われているほど、人間の中身の実現方法は 定式化されたものではないと思いますが。 簡単な規則で、当時思われていた通りか、それとも思われてもいなかった程にかはわかりませんが、 上手く機能した例として、TCP/IPのTCPプロトコルが挙げられます。 「届いたよ信号が届かなかったら再送する」とか単純な規則で、命令も言語もアーキテクチャも世代も 乗り越えて機能しているのはすごいことです。
213 : >>211 >ちょっと行き過ぎた定義かな。 んー、そうかも知れない。 しかし、人間は既存の枠組が役に立たないと分かったら、新たな枠組を自発的に見つけようとする。 見つけたものが必ずしも役に立つとは限らないが、おおむね、制限時間内にどうにか見つけ出す。 「新たな処理の枠組」が必ずしも人間らしくある必要は無いが、 人間以外がそれを自発的に見つけた例を、私は多く知らない。 強いて言えば>>63 とか>>142 がその少数例にあたるのだろうが、 ある程度広範な分野にまたがる問題に対して、統一的な意図を以て、処理の枠組みを見つけるという仕事を、 人間以外が成し遂げたという例はまだ知らない。
214 : >>213 >「新たな処理の枠組」が必ずしも人間らしくある必要は無いが、 >人間以外がそれを自発的に見つけた例を、私は多く知らない。 人工知能にはサブジャンルとして、人工生命がある。 有名なTierraでは、限られたルールから寄生行動や社会的行動のような仕組みを電脳生物たちが自分で発見した。 報酬にあたるものが生存だけで、いわゆる教師なし学習による問題解決が行われている例。 もちろんこれは、すぐに役に立った例ではないけどね。人工生命研究には創発的な応用分野があったはずだ。 >ある程度広範な分野にまたがる問題に対して、統一的な意図を以て、処理の枠組みを見つけるという仕事を、 >人間以外が成し遂げたという例はまだ知らない。 「統一的な意図」が何を意味するのかわからないので、ちょっと答えづらい。
215 : >>211 2000年問題については、計算資源の限界(当時の遅延線とかコアメモリや磁気ディスクは今より とても高価だった)とか、言語仕様の問題とか、それで動けば当分は問題ないよねという妥協とか、 色々な人が色々な原因から作り出した問題だと思っています。直線的には理解し切れないと。 80年代には話題になっていて、問題意識もあって、新しく書き直されたり、改修されたりした システムが増えていった筈ですが、1990年代末にジャーナリズムやSI自身が利用した感が。 僕の強いAIのイメージは、オイラーとかアインシュタインくらい賢い人間に近い思考力のコンピューターが 人間の100倍くらいの速度で、人間の100倍くらいの記憶力と、人間の100倍くらいの学習能力を駆使して、 バリバリ問題を解いてく感じです。それが100台くらい色んな研究機関にあって。 ま、馬鹿げてるイメージだとは思いますが。 強いAIができたとしても、それが天才に遥かに超える思考力を時間当たりに持つかどうかには疑問があります。 知能というものが、もしかしたら、人間に近い程度にとどまるのではないかという。
216 : 人間の脳どころか、どんな下等生物でさえもフレーム問題で困っていないのだから そんな問題なんか大した事はなかろう
217 : で、フレーム問題を問題と捉えてる輩はどこが問題だと思ってるのさ グダっててようわからんから三行で要点まとめてよ
218 : 囲碁とか将棋のソフトも探索空間が十分でかいのにフレーム問題は起きてないしねえ。
219 : 「フレーム問題」なるものについて浅学なのでずっとROMってた者だが、 >>209 の >人間は、既存の処理の枠組に問題が見つかったら、たとえそれが予期しなかった事であっても、 >新しい枠組を設定しなおして、概ね支障無く問題解決できる。 この説明が非常にしっくりきた。 仕様設計上想定されていない問題に対する枠組みの創造、つまり創発が問題の本質なんだろうと理解した とすると将棋にせよチェスにせよ新たなモデルを構築したわけではないし 下等生物がフレーム問題で困っていないことよりも、何故人間のみが創造的生物たり得ているかという視点で強いAIの境界を考えなきゃならんわな 「創発する意識」とかいうものがAI上で実現可能か、という それを拡大解釈すると2000年問題もフレーム問題かもしれないなあ
220 : >>216 困ってないんじゃないよ、どうやってるのか分らないけど 計算できないことを無視してるからフレーム問題とは 無関係なように見えるの。 フレーム問題を真の意味で解決しようと思ったら 無限の演算能力が必要になるから非現実的です。 >>217 「問題」がいつ起こるか、どこから来るのか、理解可能なのか一切分らないこと。 我々の宇宙を神様が気まぐれで壊したとして、それを知り得るのかって問題。 三行要りませんでしたね。 >>218 コンピューターと人間がソフトで勝負していたとして、人間が負けそうになったから コンピューターを壊してしまったってのが「フレーム問題」。 通常通り稼働しているソフトの範囲内では、規模の大小に関わらず発生しません。 >>219 解説可能性の可否は問題じゃないです。 後々何か付け足して解決できたとしても、それはフレームの範囲内でしかないです。 2000年問題もフレームの範囲内で起きたことでしかないため、「問題」ではありません。 そもそも、プログラムというルールが正常稼働していたことには違いないのですから。 ぶっちゃけ、1960年代頃行われた議論を繰り返してるような内容で 本をもっと読んだ方が良いですよってチョット言いたくなりますね。:p
221 : ちょっとROMが足りないかな
222 : >>220 一応聞くけど、それがフレーム問題とどう関係すんの?
223 : >>220 >本をもっと読んだ方が良いですよってチョット言いたくなりますね。:p どんな本のどの部分を読んで言ってるの? 少なくともWikipediaの説明には無い話をしてるよねえ?
224 : 複数レスへの安価を一レスにまとめんなよ追いづらくなんだろ・・・
225 : >>222 逆に聞くけど、フレーム問題ってなんだと思ってますか? ここで言う問題とは、問題が従ってるルールの「外」のことなんですよ。 故に、プログラムを改修すれば解決する2000年に問題は違います。 チェスを初手から完全に読み切り、必勝法を見つけられる能力があっても フレーム問題は解決不能です。
226 : >>223 ソースがWikipediaってなんなんですか? 話にならないんですけど。
227 : >>226 だからどんなソースにをもとに言ってるかって聞いてるのよ マッカーシーの論文でいうと何ページの辺り?
228 : >>227 ソースですか? 余りにも古くさくかつ本質的なので無いに等しいですよ。 http://www-formal.stanford.edu/jmc/mcchay69/mcchay69.html 「何か元ネタ」があるなら、それは最早問題ではありませんよね?
229 : >>220 >>221 うん、情報系素人の俺にはROMが足りなかったようだ 16年ぐらいROMっとくわw (皮肉じゃなくてジョークなんだからねっ!!
230 : 「計算量を刈り込みつつ所望する結果を得る原理が分かっていて、後は技巧や物量が必要なだけ」 な事柄では狭義のフレーム問題は発生していないか、上手く回避できている。 「計算量を刈り込みつつ所望する結果を得る原理が分かっていない」 事柄では、狭義の意味でも広義の意味(一般化されたもの)でも、フレーム問題を解決あるいは回避できてない。 ……こんなところか?
231 : >>230 これはまぁ納得できる。
232 : >>228 ちょっと読むの時間かかりそうだわ しばらくROMりますw
233 : 攻殻で「人間が死ぬことなく知識を溜め込み続ければ”考えすぎ”状態に陥って思考が破綻する」 みたいなネタがあったけど、1/1人間スケールの強いAIに扱える記憶量ってどれくらいが限界なんだろうな?
234 : >>219 >下等生物がフレーム問題で困っていないことよりも、何故人間のみが創造的生物たり得ているかという >視点で強いAIの境界を考えなきゃならんわな 何をもって創造的生物や創発と呼んでいるか、が本質的なところ。 >>230 そのように定義したとして、狭義のフレーム問題は人間も機械も解決できており 広義のフレーム問題は人間も機械も解決できてない、とそういう風になるのだよね。 シンギュラリティの問題とは関係ない。
235 : フレーム問題については前スレで「5たす五は・・・」とか妙なことを言い出して、 「無限の定義をしてもなおかつ人間よりコンピュータが早くなる。それがシンギュラリティ」 と言ったヤツが居たのが発端。 それはフレーム問題で真っ向から力技で解くなど無理筋。と指摘したら返答は無かった。 まあ、前スレ848がもう解決したらしいし、もう良いんじゃないか。
236 : >>234 うん、「広義のフレーム問題が解けなければシンギュラリティが来ない」と言いたいわけではない。 ただ、俺は 「シンギュラリティ以降」=「生身の人間の問題解決能力を上回る存在が、文明社会を動かすようになる時期」 と捉えているので、 シンギュラリティ以降の強いAIは、狭義であれ広義であれ、生身の人間よりもずっと上手にフレーム問題を処理してると思う。
237 : >>214 >「統一的な意図」が何を意味するのかわからないので、ちょっと答えづらい。 あー、自分が想起してたのは…… 例えばの話だが、 電気と磁気という昔の人間にとっては別物に見えた現象を「電磁力」として統一的に処理できる枠組や法則を見つけたり、 粒子と波動という別物としてとらえられていたものを「量子」として統一的に処理できる枠組や法則を見つけたり、 エネルギーと質量を等価なものとして処理できる枠組や法則、技術を見つけたり、と、そういった事。 人間は自分や外界を把握するに当たって『一貫性』を重視する性質が有り、 できるだけ少数の原理から統一的に世界を説明できるようにしようとする性質がある。 これが人間のみに見られる性質なのかどうかは知らないが、 人間以外の生物種や人工生命であっても、人間が強いられたような淘汰圧を受ければ、 人間と同じような知的性質(「一貫性」や「統一的な意図」)を持つのでは、と私は考えている。 で、今のAIはばらばらの分野では人間を上回っているものもあるけど、複数の分野で人間以上になれたものがあるかどうか、私は知らない。
238 : >>230 必要な計算と不要な部分とをどう切り分けるかが問題になりますね。 例えば、無意識のうちに蹴ってしまった小石が、どこに行ったかを 気にする人は居ないでしょうが、初期パラメータさえ判明していれば 原理的には計算可能です。 では、その行き先をどこまで計算すべきでしょうか? 計算するコンピュータに「人に危害を加えるな」と命令したい場合 その小石が人に当たったり何かの事故のきっかけになる可能性を 否定できないため、事実上無限に計算が必要になります。 即ち、「ここから先は計算しなくても良い」という外部からの 干渉がなければ有限の範囲内でもフレーム問題は発生し得ます。 >>233 演算速度と情報の移動速度は光速の限界に従うので 人間の脳と同スケールに詰められる容量は素子の微細化に 素直に従うはずですね。 反応速度も人間スケールとした場合、「チップサイズ」の極限は 半径0.1〜0.2光秒程度になるはずです。 >>234 人間はフレーム問題を解決できていません。 単に、方法は不明ながら無視することが出来ているだけです。 解決できていない証拠に、想定していない事態に対し人間は 無防備にしかも事後対処しかできていません。 >>236 計算速度を高めさえすればシンギュラリティを待つことなく より進んだ対処は可能ですよ。
239 : >人間はフレーム問題を解決できていません。 >単に、方法は不明ながら無視することが出来ているだけです。 >解決できていない証拠に、想定していない事態に対し人間は >無防備にしかも事後対処しかできていません。 フレーム問題を解決、イコール、全ての事象が想定内という事になるが それはいったいどんな神様だ?
240 : だから一レスからアンカーたくさん飛ばすなっての
241 : >>233 前スレの924が >その後のレスもちゃんと読まずに流れ無視してしまうが、「生物的制約」というのは存外強い縛りらしいよ >詳細は例えば別冊日経サイエンス191「心の迷宮」p.118やp.127の記事 >http://www.nikkei-science.com/page/sci_book/bessatu/51191.html >あたり参照されたいが、概要を書くと人間の脳については >・脳サイズが大きくなると各機能ごとのニューロン間の距離が広がり過ぎ、軸索の伝達速度限界から伝達≒処理速度が遅くなり収穫逓減の法則がはたらく可能性が高い(Vijay Balasubramanian) >・同じ脳サイズに、より多くのニューロンを詰め込むと軸索が細くなりノイズが増える と言っていたが、 生物的なニューロンの場合、ひょっとしたら人間の脳あたりが限界なのかも。 「生物的なニューロン」という縛りが無い場合……「1kgの物質を使って計算機を作った場合、その計算能力の物理法則上の上限はどの辺りか?」という考察が有る。 (↓複数のSCIENTIFIC AMERICANの記事を誰かが引用してまとめたWebページ) http://www.asyura2.com/09/nature4/msg/443.html ただ、この記事の中で論拠として出てきた「t≧h/4E」などの数式を使って実際に検算を試みたところ、 ところどころ計算が合わない所が有るっぽい。私もしくは記事の引用者が計算を間違えている可能性があるので、注意されたし。 あと、引用者の10のべき乗表現に難有り。(毎秒10106回の演算→毎秒10^106回の演算)
242 : 毎回IDを変更するお前って、どんだけキチガイなの? 必死すぎるよ。
243 : >>239 そうですよ、真の意味でフレーム問題を解決しようと思ったら あらゆる事象を考慮する必要があるため、即ちそれ神です。 貴方は普段、ひょっとしたら今隕石が落ちてきて死ぬかもしれない いや、最低でも生活が奪われるかも…などと想定し暮らしてますか? していない思いますが、それはそう言った可能性を無視してるに過ぎません。
244 : >>242 スタティックでグローバルなIPが割り当てられたら環境でなければ、リース期間ごとにIDは変わるよ。
245 : >>237 >人間は自分や外界を把握するに当たって『一貫性』を重視する性質が有り、 >できるだけ少数の原理から統一的に世界を説明できるようにしようとする性質がある。 これはあくまで人間の営みのうちの「科学」のイデオロギーであって、一貫性が人間の知性の前提である という意見には、若干の疑念が残るな。 人間は複数の課題に対し同一のハードウェア(=脳)で対処してるのは確かだが それは、人間の使用している脳が同一ハードウェアで場面場面での解決策を見つけやすいって話であって、 必ずしも一貫性のある規則を見つける、という話ではないよね。
246 : いくつか用語の混乱がある。各個人が「解決」に対して当てている意味が違う。 フレーム問題というのは「事象に関連のある事柄を選び出す時に莫大な計算量が生まれる」問題で >>163 の説明のとおり、「本質的には解決しない」。 フレーム問題を「避けて(≒現実的に解いて)」計算を終える方法として、いくつかのアプローチが提案されてきた。 1:能力的に解決可能な範囲まで考え、計算出来ない部分は存在しないと考える。人間とコンピュータが採用している。 2:うまく行った方法を真似て省力化する(=模倣。学習。ヒューリスティクス)。人間とコンピュータが採用している。 3:計算の一部を実世界に任せて省力化する(=身体性)。人間とロボット(≒コンピュータ)が採用している。 したがって、コンピュータにはできなくて、人間にしかできない「フレーム問題の避け方」なるものは まだ発見されてない。
247 : >>243 隕石が落ちてくる可能性を考えている人はいるかもな。 個人でもいるかもしれないし、グループや政府機関もある筈ではある。 とはいえこの多様性が、ひょっとしたら落ちてくるかもしれない隕石から、今の人類を守ってくれる とは思えないけれど。 >>245 しかも当時科学を研究していたプロフェッショナルの中の、一部の天才が成し遂げた偉業ですしね。 歴史的に多数の人が関わっているんであって、個人がそうというわけではないと思う。 どうも、進歩に向かう意思とか、人間至上主義みたいなものを、過剰に意識するのが現代人の傾向なのかも。 とはいえ、今のところ現代人以上の知的存在は、人間が知る限り出てきていないわけだけど。 電子工学や核融合よりも、微細なスケールの力を応用的に使えるようになるのは、人間以上のAIが 出てきた後なのかも。
248 : >>246 その123は人間についてはまだ仮説レベルだわ。 人間が論理的に判断するのは主に前頭葉と見られているが、脳に入る情報のうちほんの一部しか送られない。 論理的に判断する前に適当に処理してしまっているわけだ。 脳内から離れるが、分かり易いのは脚気のテストで使われる脊髄反射。 脳に送るまでも無く処理してしまっている。これも身体性の一種と言えなくもないかもしれない。 さて、こういう論理的でない処理をコンピュータにどうやってやらせるか。 NNならどうにか処理してしまうだろうか?まだ見通しは立たないな。
249 : >>248 > さて、こういう論理的でない処理をコンピュータにどうやってやらせるか。 脊髄反射や小脳レベルの処理を「論理的でない」とする理由が良く分からない 特定の入力に対して特定の出力を返すのは、非常に論理的なプロセスだし 身体的な行動はコンピュータで既に模倣されてると思うが 下層のことは下層で、処理できない情報を上に送るシステムとしては、 サブサンプションアーキテクチャがまさに該当する
250 : >>244 日本語でお願いします
251 : >>249 そこは僕も自分で書きながら思ったんだけど、例えが悪かったかな。 「計算出来ない部分は存在しないと考える。」というような論理的な判断を果たして人間がしているのか? という点はまだよく分からん。と言うこと。
252 : >>251 > 「計算出来ない部分は存在しないと考える。」というような論理的な判断を果たして人間がしているのか? > という点はまだよく分からん。と言うこと。 「計算できない部分は存在しないとして計算しない」のは 単に資源の限界だからであって、論理的も非論理的もない 意識で計算している範囲以上に無意識で計算してる、という意味なら それは脳が単に目に見えない計算資源を多く持ってる事を意味するに過ぎないと思う 脳の全体の振る舞いがまだ良くわからん、のは事実だけど >>246 の123のアプローチで解決できない課題、というのもまだ見つかってないし そういう課題が無意識の領域で初めて解決される、という証拠もいまのところない
253 : >>252 コンピュータに処理させるなら、そういうアプローチが現実的だろう。 人間がそんなに論理的にきっちり処理してるとは思えないけどな。 もっと行き当たりばったりに適当にやってるんじゃない? シンギュラリティを実現する強いAIにそういう物が必要なのかどうかシンギュラリタリアンに説明して欲しいところ。
254 : >>247 対処可能かどうかが問題なのではありません。 コンピューターのマシンパワーで人間の知的活動を行おうとした場合 「ここから先は無視しても当面問題はない」という『フレーム』の設定を 行わないと、際限なく処理し続け結果、八方ふさがりになってしまい 行動できなくなるという問題なのです。 この問題において古典的且つ有名な「爆弾処理ロボットの困難が」あるので 「フレーム問題 爆弾」とでも検索して調べてみて下さい。 >>253 シンギュラリティなる概念にはとても同意できませんね。 そもそも何故ネットワーク上で繋がれたシステムでは駄目で 同一マシン(単体のCPU?)での素子数で達成できるのか 理解できません。
255 : >>254 デネットのたとえ話はあまり良い説明だとは思えないわ。 「爆弾」というイメージが強すぎるので、「取り外して運べば良いだけ」と誤解する人が後を絶たない。 もっと普遍的な問題だから地味な説明の方が良いと思う。 「出来の悪いたとえ話100選」があったら推薦したいぐらいだ。 一部のシンギュラリタリアンはインターネットは人間を越える可能性があると考えてるみたいだぞ。
256 : フレーム問題で誤解が生まれやすい理由の一つが「考慮すべき事項のリストが優先度の高い順にソートされた状態で既に存在する」という前提で考えてしまうこと。 この前提なら「タイムアウトすれば解決」という結論に至るのも無理ない。 だが本当に難しいのはこのリストを生成する段階で、例えば爆弾の例なら、 「このバッテリーを動かすと上にのった爆弾は爆発しないかどうか」 「バッテリーを動かす前に爆弾を移動させないといけないか」 といった条件をAIが自発的に生成出来るかが問題。
257 : >>245 まあ、ね。今のところ、私の意見は個人的な見解に過ぎない。 さしあたり、「なぜ、人間は複数の課題に対し同一のハードウェア(=脳)で対処できているか?」 もう少し一人で考えてみる。
258 : >>254 上手く伝えられなくて申し訳なかったけれど、隕石が落ちてくることを想定していないは、 喩えとして微妙だなと思った。 想定していないからじゃなくて、想定しているかもしれないけれど、想定することによって 現在必要な行動が阻害されない、とでも言えばいいのかな。 > そもそも何故ネットワーク上で繋がれたシステムでは駄目で > 同一マシン(単体のCPU?)での素子数で達成できるのか > 理解できません。 この点は、別に同一のマシン限定じゃないとは思う。論理計算が非常に速くなるのと、 論理計算のコストがものすごく低くなるというのが主眼じゃないかな。 > シンギュラリティなる概念にはとても同意できませんね。 超天才オイラーの予想が、1966年に凡人2人と今となってはポンコツの部類のCDC6600の 数値計算力によってあっさり覆されたことを考えてみるといいのです。 人間の計算力には限りがありますし、学習できる分野も時間的に制限されていますし、 思考の範囲も極めて限定されています。多次元問題なんてのはそうですね。 強いAIはそういう制約を受けないでしょう。 強いAIが活動を始めてから後の数十年で(これは僕が適当に挙げた数字で、誰かが唱えている ものではありません)、人類がこれまでしてきたものをはるかに超える量の計算と思考がなされ、 発見がなされ、しかも人間はそれを理解したり対抗することができなかったりするかもしれません。 個人的には、そこからバラ色の未来のみを想像することはできないのですが、何かが起きることは 間違いがありません。
259 : >>253 >人間がそんなに論理的にきっちり処理してるとは思えないけどな。 >もっと行き当たりばったりに適当にやってるんじゃない? あなたの「論理的」の定義がちょっと良くわからない。 (人間にとってなんとなく論理的に感じるという意味で使ってるのかな?計算論理にそっているかどうかではなく) まあその、行き当たりばったりであろうと、それが手続きであれば、アルゴリズムだと思います。 >シンギュラリティを実現する強いAIにそういう物が必要なのかどうかシンギュラリタリアンに説明して欲しいところ。 人間にしかできなくて計算機にできない、という課題で、明確に定義されているものはほぼない、という答えになるかな。 つまり、「そういうもの」(何を指すのかよくわからないが…)は特に必要ない。
260 : >>256 >フレーム問題で誤解が生まれやすい理由の一つが「考慮すべき事項のリストが >優先度の高い順にソートされた状態で既に存在する」という前提で考えてしまうこと。 だからこそ、身体性みたいな「自己がどの視点で観測してるか」という話が重要だったりするんだけどね。 目に入っているものから計算してけば、それが自動的に優先順位になるわけで。 古いAIでは、常に鳥瞰視点からの推論しか考えてないという欠点があった。 フレーム問題が人工知能の文脈で議論になったのに対し、機械・ロボット屋さんがほぼ無視してきた というのは重要な差異だと思う。手を動かしている人たちにとって、それは初めから現実的な問題ではなかった。
261 : 面白い議論になってきた このスレは波が激しいな 議論を喧嘩と勘違いしてる奴が多いときは糞スレになる
262 : 爆弾処理問題は古典だけあって 「AIの事前知識をゼロ」と設定してあるのがおかしい。 「思考しながら行動する」という設定も無いのがおかしい。
263 : >>260 >目に入っているものから計算してけば、それが自動的に優先順位になるわけで。 取っ掛かりのアプローチとしてはそれが有効だろうね。 ただ、「目に入っているもの」から考慮事項をどう洗い出すかという問題があるし、各項目について具体的な調べ方をAI自身が生成する必要もある。 例えば「このバッテリーを動かすと上にのった爆弾は爆発しないかどうか」を調べる必要がある場合、弱いAIでは「爆発しないか」を確認するアルゴリズムを人間が手作業で記述することになるが、汎用的なAIを作るにはこの部分を自動化しなければならない。 まあ後者の問題はフレーム問題からは少し遠ざかるかもしれないが。
264 : >>259 > あなたの「論理的」の定義がちょっと良くわからない。 > (人間にとってなんとなく論理的に感じるという意味で使ってるのかな?計算論理にそっているかどうかではなく) たとえば夜眠れないときに普段は気にもしていない時計の針の音が気になってイライラする。とかあるじゃない。 この時計の針の音って処理する必要ないよね。 そんな全く必要ないものがアウェアネスに上がってくるというのはカッチリ論理的に処理してればありえないことでしょ。 当然逆のことも起こってる。重要なことを見落として後から「しまった」と思うこともあるわけだし。 人間の場合その場その場で適当に処理してるだけじゃ無いかと言うこと。
265 : >>260 松原仁さんなんかは典型的なロボット屋さんだよ。
266 : >>264 行き当たりばったりにせよ、内的な法則があって普段は知覚されないにせよ、それらの複合にせよ、 それが定式化することが可能であって、現実的な時間で計算できるなら、人間シミュレーションに 障害にはならない気はする。 憶測だけど、どっちを使っても知性めいたものはできると思う。 個人的にはある一定の法則はあるけれど、集合としてみるとランダムに見えるみたいな法則が あるのではないかという気はする。神経なんてのは雑音の塊みたいなもんだから。
267 : >>263 >汎用的なAIを作るにはこの部分を自動化しなければならない 目に入るものから分類することは難しくないというか、画像処理ではもうやられてる。 後半は汎用的なAIの定義によるだろうけど、ここでは「言われた作業を解決するAI」でいいのかな? >>264 >たとえば夜眠れないときに普段は気にもしていない時計の針の音が気になってイライラする。とかあるじゃない。 >この時計の針の音って処理する必要ないよね。 >そんな全く必要ないものがアウェアネスに上がってくるというのはカッチリ論理的に処理してればありえないことでしょ。 寝るときにある程度以上の音がしていたら目が覚めるというのは、動物にとって妥当な (きわめて論理的な)防衛反応に思える。寝てるまま襲われたら困るし。 上位の脳が「あれは時計だ心配ない寝ろ」という信号を出していて、下位の脳が「危ないから起きろ」という 信号を出しているから「論理的でない」という意味かな? そうであれば、こういう仕組みはサブサンプションアーキテクチャでいう上位層の抑制 (と抑制の失敗)モデルによく似ていると思う。 各層同士のせめぎ合いで、場合によって矛盾してくるというのが、サブサンプションの考え方なので。 >>265 松原氏は経歴見る限り、典型的な情報屋さん(情報出身のロボット屋さん)だと思うけど… http://next.rikunabi.com/tech/docs/ct_s03600.jsp?p=001086
268 : >>267 >目に入るものから分類することは難しくないというか、画像処理ではもうやられてる。 難しいのはそこじゃない。 爆弾を運ぶ例なら、視覚情報から「爆弾」や「バッテリー」という物体を認識した後、「このバッテリーを動かすと上にのった爆弾は爆発しないかどうか」といった考慮事項をAIが自ら生成出来るかが問題。 で、仮に考慮事項を洗い出せたとしても実際にそれを調べるためのアルゴリズムがなければ何の役にも立たないので結局コードの自動生成もセットで必要になる。 >後半は汎用的なAIの定義によるだろうけど、ここでは「言われた作業を解決するAI」でいいのかな? 基本的にはそれでいいと思うけど、不測の事態に人間並の対応が出来ることは最低限必要かな。
269 : >>267 > 寝るときにある程度以上の音がしていたら目が覚めるというのは、動物にとって妥当な > (きわめて論理的な)防衛反応に思える。寝てるまま襲われたら困るし。 普通に眠れるときは時計の針の音なんて気にならないよ。
270 : >>267 > 松原氏は経歴見る限り、典型的な情報屋さん(情報出身のロボット屋さん)だと思うけど… 本人は鉄腕アトムを作るために研究を始めたと言ってるよ。
271 : >>268 >爆弾を運ぶ例なら、視覚情報から「爆弾」や「バッテリー」という物体を認識した後、「このバッテリーを動かすと上にのった爆弾は爆発しないかどうか」といった考慮事項をAIが自ら生成出来るかが問題。 >で、仮に考慮事項を洗い出せたとしても実際にそれを調べるためのアルゴリズムがなければ何の役にも立たないので結局コードの自動生成もセットで必要になる。 それでいいなら、オントロジーという分野が既にあって研究もされている。 >基本的にはそれでいいと思うけど、不測の事態に人間並の対応が出来ることは最低限必要かな。 それって、「不測の事態」の定義=操作側にどこまでの権限があるか記述しなければ、 人間でも対処できないよ。マニュアル人間では問題に対処できないのと一緒。 コンピュータの能力が壁になってるのではなく、人間の問題への無理解が壁になるのではないかな。 人間は、どこまでの権限をコンピュータに与える覚悟があるのかな?
272 : >>269 >普通に眠れるときは時計の針の音なんて気にならないよ。 どういう時を「普通に眠れるとき」と定義してる? そもそも、時計の針の音を気にしないで眠ることは「論理的」「合理的」なんだろうか? >>270 >本人は鉄腕アトムを作るために研究を始めたと言ってるよ。 その世代の人間なら、機械屋も情報屋もだいたい同じこと言うよ。 そもそも鉄腕アトムは、ロボットの力(≒機械)より心(≒情報)に注目した漫画だからね。 その人が何を学んで、何を作ってきたのかが大事で、松原氏はその意味では情報屋さんだと思うけど。 機械屋さんっていうのは、たとえば前野隆司氏みたいな人だと思う。
273 : >>271 オントロジーで考慮事項の洗い出しとコードの自動生成に成功したなんて話は聴いたことがないな。 いくらググっても出てこないし。 まだ研究段階ということでいいのかな? もし既に>>268 を実現できるAIが完成しているというのなら是非拝見したい。 >どこまでの権限があるか記述しなければ、 人間でも対処できないよ 「どこまで権限を与えるか」と「能力的に人間と同等の機能を有するか」は全く別の話。 前者ももちろん重要な課題の一つではあるけど、現状のAIにいくら権限を与えたところで人間のように振る舞うことは出来ない。 少なくとも現時点ではコンピュータの能力も壁になっているでしょう。 ところで>>267 で聞かれたのは「言われた作業を解決するAIでいいか」のはずだけど、結局この質問の意図は?
274 : >>272 > どういう時を「普通に眠れるとき」と定義してる? こんな自明なことを何故確認する?君は毎晩寝るときに時計の針の音を確認してるのか? > そもそも、時計の針の音を気にしないで眠ることは「論理的」「合理的」なんだろうか? だから人間は行き当たりばったりだと言っている。 > >本人は鉄腕アトムを作るために研究を始めたと言ってるよ。 > その世代の人間なら、機械屋も情報屋もだいたい同じこと言うよ。 そもそもロボット屋と情報屋を線引きするのも難しいわな。 FA用途みたいな単純なものでなければロボットには情報処理が必要なんだから。 > 機械屋さんっていうのは、たとえば前野隆司氏みたいな人だと思う。 受動意識仮説の人か。お互い意に沿う研究者を列挙しても意味が無いな。 受動意識仮説の話はたびたび出てくるからちょっと批判しておく。 良く引き合いに出されるリベットの実験だが、被験者にはどこでボタンを押すか事前に予定しないように指示されていた。 それにも関わらず実験後のアンケートでは半数ほど(だったかな?)はどこでボタンを押すか考えてしまった。ということが分かっている。 当然それはデータには現れてない。これが何を意味するか少し考えれば分かるだろう。 意識ー無意識と言う構図で人間の情報処理が語られるが、これは古くはフロイトの局所モデルに遡る。 フロイトの場合その間に前意識というのがあるが。 その後フロイト自身が力動モデルに変更している。これは局所モデルだけでは説明できないことがあったからだ。 その後心のモデル論は百家争鳴の状態になり、結果心の中はブラックボックスとする現象主義に置き換わった。 現在の心理学では心のモデル論は参考程度のものとしてしか捉えられていない。 簡単な説明としては局所モデルが使われることはあるが。 今時局所モデルで心が説明できると考えるのはいささか不勉強に過ぎる。
275 : >>273 >もし既に>>268 を実現できるAIが完成しているというのなら是非拝見したい。 コードの自動生成は推論研究でやられている。Prologなんか有名だけど、部品としてはある。 部分的な達成としては既にレスキューロボットコンテストや、ロボカップサッカーみたいなのがあるね。 汎用的なものには需要がないから、予算も人手もつかない。 >ところで>>267 で聞かれたのは「言われた作業を解決するAIでいいか」のはずだけど、結局この質問の意図は? 「言われた作業を解決する」ことと「不測の事態に対応する」は根本的に矛盾した命令で、 ということを理解して欲しかった。 ブラック企業の無能上司みたいなもので、言われたことだけやってると「自分で頭を働かせろ」と言われて 言われてないことをやると「そんなことをやれとは言ってない」と言われる感じ。 つまり、人間側が計算機に与えるべき課題を定義出来てない。 この状態で「人間を超える知性」云々を議論しても、そんなものは人間(=上司)の口先で決まるからあまり意味が無い。
276 : >>274 >> どういう時を「普通に眠れるとき」と定義してる? >こんな自明なことを何故確認する?君は毎晩寝るときに時計の針の音を確認してるのか? 「予め爆弾魔から爆破予告を受けている」としたら?その場合は音の性質に注意を払うのでは? 何が合理的かは前提によって全然変わる。これはどちらが知的かという定義には当てはまらない。 >> そもそも、時計の針の音を気にしないで眠ることは「論理的」「合理的」なんだろうか? >だから人間は行き当たりばったりだと言っている。 合理的でない動作を作ることは簡単(=サブサンプションアーキテクチャのエラーなど)なので それは人間に出来て計算機に出来ないことを示したことにならない。 合理的な動作を作るほうが難しい。 で、合理性は文脈によって全然違うので、定義が必要。
277 : >>275 >部分的な達成としては既にレスキューロボットコンテストや、ロボカップサッカーみたいなのがあるね それらは考慮事項もその調べ方も人間が手作業でプログラミングしている典型的な例じゃん。 部分的な達成というのはどの程度のことを言ってるのかな…。 >コードの自動生成は推論研究でやられている 人間が書いた仕様をコードに落とし込む技術ならいくらでもあるが、それのことじゃなくて? ここで言ってるのはAI自身が必要なコードをアルゴリズムの段階から生成するって話だけど。 出来ればソースを貼ってもらえると助かる。 >人間側が計算機に与えるべき課題を定義出来てない 爆弾の例で何か問題ある? ・人間ならば「バッテリーを取り出すと爆弾も同時に運んでしまうこと」を常識で理解できる。 ・AIの場合は予め同時に運ばないようにプログラミングしなければならない。 このように人間とAIの差がはっきり分かっているので取り組みやすいし、 手作業で実装する領域をどこまで絞るか決める必要はあるが(爆弾に関する知識は人間が入力するのか、もしくは知識を得る段階から自発的にさせるのか等)、 上手く運び出せれば成功という明確なゴールもある。 >「言われた作業を解決する」ことと「不測の事態に対応する」は根本的に矛盾した命令で、 >ということを理解して欲しかった。 俺が不測の事態云々と発言したのは質問された後なんだけど…それが質問の意図ってどういうこと?
278 : > ・人間ならば「バッテリーを取り出すと爆弾も同時に運んでしまうこと」を常識で理解できる。 これは「人間」と「常識」の部分が弱いのではないかな。 大抵の人間の場合は、社会とか教育とかによって、ある程度訓練されているから。 プログラムされているといってもいい。 一方、訓練されていない人間は、洞窟とロボットの例を上手に解けない可能性がある。 ボールペン型のトラップ爆弾とか、空中散布地雷を拾おうとして死んだ例とか、枚挙に暇がない。 ロボットと洞窟の例を解ける人間は、解けるだけの前提知識や経験(内的プログラム)があるってだけ。 どこまでを顧慮に入れればいいのかというのも同様に、学習やハードコードによるものの可能性が高い。 まぁ、人間の幼児や子供は、そんな状況に置かれることはほぼないし、そういうプレッシャーもないから 確認もできないけど。
279 : >>278 >大抵の人間の場合は、社会とか教育とかによって、ある程度訓練されているから。 >プログラムされているといってもいい。 もちろんそういうことだよ。 重要なのはAIが前提知識や経験をどう学習するか、どう使うかという部分。
280 : >>276 > >> どういう時を「普通に眠れるとき」と定義してる? > >こんな自明なことを何故確認する?君は毎晩寝るときに時計の針の音を確認してるのか? > 「予め爆弾魔から爆破予告を受けている」としたら?その場合は音の性質に注意を払うのでは? そりゃそうだろう。そんな状況で「普通に眠れる」のか? > 合理的でない動作を作ることは簡単(=サブサンプションアーキテクチャのエラーなど)なので サブサンプションにこだわりすぎ。そんなに大したものじゃないだろう。 > それは人間に出来て計算機に出来ないことを示したことにならない。 > 合理的な動作を作るほうが難しい。 > で、合理性は文脈によって全然違うので、定義が必要。 話がズレてるよ。 >>246 の123を人間に当てはめるのは早計。と言ってるだけ。 まだ良く分かってないんだから。
281 : てかさぁ……ロボットとゾンビはもうやめにしないか…… 出てくるたびにウンザリ。
282 : ? 別にロボットとゾンビの話を禁ずる必要は無かろう。 どうやら知能は身体と切り離して成立しない様だから、AIを考えるに当たってはロボット工学を頭のどこかに置いとかないといけないだろうし、 人間が無意識にできる事とできない事の差を考えるに当たっては哲学的ゾンビという概念はなかなか面白いし。 うんざりすると言うなら、2ch専用ブラウザーを使ってNGワード登録でもすればいかがか。
283 : >>274 受動意識仮説に関しては、別に賛成の立場でも反対の立場でもないので保留。 基本的に、フレーム問題を問題としてない機械屋として前野氏を挙げた。 リベットの実験については、たくさんの追試が行われているので、その反論で十分であるかこちらはわからない。 時間あれば、あとで調べてみるが。 >>277 >ここで言ってるのはAI自身が必要なコードをアルゴリズムの段階から生成するって話だけど。 >出来ればソースを貼ってもらえると助かる。 該当のテーマは「自動プログラミング」という分野として、だいぶ昔からやられてる(カネになる分野はやられる)。 遺伝的アルゴリズムの兄弟に当たる遺伝的プログラミングとかは、事前知識をほぼ用いないソース生成例。 >俺が不測の事態云々と発言したのは質問された後なんだけど…それが質問の意図ってどういうこと? >>267 の質問の「言われた作業を解決する」自体が、作業目的が決まってるので「汎用性」と矛盾する。 そこを明らかにしたかった。
284 : >>277 >爆弾の例で何か問題ある? >・人間ならば「バッテリーを取り出すと爆弾も同時に運んでしまうこと」を常識で理解できる。 >・AIの場合は予め同時に運ばないようにプログラミングしなければならない。 今主流の方法なら、爆弾問題は例えば 1:観測から空間のモデルを作成した上で、遺伝的プログラミングを用いて爆弾と台車の動作を体験学習する 2:台車を少し動かして危険物(爆弾)が動くか観測する(アクティブセンシング) という2段構えで解決できる。台車を動かすと上にあるものが動くなんてのは大した常識ではないし、 物理エンジンを用いたロボット用のシミュレータは大体どこにでもある。 これをShakeyの推論エンジンみたいなやり方と並行で走らせて、うまくいった方を採用すればいい。
285 : ただ真の問題は、こういうロボットを用いても、予期しない動作が発生することがありえること。 例えば、爆弾を台車から離した瞬間に爆発するトラップがあるとかね。 「爆弾を台車から離したら爆発する」は常識ではないし、人間でも間違える可能性がある。 ただし人間が間違えたならそいつに責任を問えばいいが、ロボットが間違えた場合、責任主体がいない。 技術的には頑張れば達成可能だけど、社会がどこまでロボットに権限を与えていいか定義できてないので、 なかなか解決しない課題になってしまってる。 もう少し具体例を出すと、自動運転技術がそうで、技術的にゃ既に相当レベルで実用可能で 当然フレーム問題など問題にならないけど、社会がどこまで車の自律性を許すかって問題が解決してないから 実用段階で足踏みしてる(トヨタが公道で実験して警察がキレたってニュースがつい最近出たばかりだが) ttp://biz-journal.jp/2013/10/post_3120.html シンギュラリティの最後の壁は、こういう社会的受容になると思うよ
286 : >>286 >> 合理的でない動作を作ることは簡単(=サブサンプションアーキテクチャのエラーなど)なので >サブサンプションにこだわりすぎ。そんなに大したものじゃないだろう。 「大したものも」なにも、合理的で「ない」動作をするのは非常に単純。 例えば、ランダムな行動はたいてい合理的な行動にならない。 それが不服だとしたら、あなたが『人間が「合理的でない」』と考える動作に対して、 実はなんらかの法則性を見出していることになるので、それを言語化して定義しなければ始まらない。 >話がズレてるよ。 >>>246 の123を人間に当てはめるのは早計。と言ってるだけ。 >まだ良く分かってないんだから。 こちらの主張は、「>>246 の123で代替できないようなタスクを人間が処理していると証明されていない」 ということになるかな。 人間が何をやっているか知ることは大事だが、もし人間のやっていることが現状機械で代替できるなら、 それを知ることはシンギュラリティの達成条件にならない。 機械が人間と同じやり方でやらなければならない理由はない。
287 : >>284 >観測から空間のモデルを作成した上で、遺伝的プログラミングを用いて爆弾と台車の動作を体験学習する もうこの時点で手作業のプログラミングと大差ないんだよね。 前のレスでも書いたように人間の手をどこまで加えるかという程度問題なので、上記の作業を許容するという条件下でなら成功と言うことは出来る。 ただし人間に同じことをさせるには単にバッテリーを取ってくるように命じるだけでそのような作業は一切必要ない。 これは何故かというと、人間の場合は長年の経験から知識やその使い方を学習しているから。言い換えれば周りの環境によってプログラミングされていると捉えることもできる。 しかしAIと異なるのは仮に現存するロボットを社会に放ったところで人間と同等に振る舞えるように成長することはないということ。 何をもって「人間と同等」とするかは難しい問題だけどね。 チューリングテストも大してアテにならないし、AIに東大入試を解かせるプロジェクトなんてのもあるが、入試問題を解けたからといって東大生並の知能があると証明出来るわけでもない。 ただ将来的にどうなるかは未知数だが、少なくともどちらも達成されていない現時点においては人間に出来てAIに出来ないことがあると認めざるを得ないだろう。 (念のため言っておくと「人間に出来てAIに出来ないことがある」のと「人間の知能がAIを上回っている」ことはイコールではない)
288 : >>286 なんか堂々巡りパターンに陥ってるな。 > 「大したものも」なにも、合理的で「ない」動作をするのは非常に単純。 > 例えば、ランダムな行動はたいてい合理的な行動にならない。 > それが不服だとしたら、あなたが『人間が「合理的でない」』と考える動作に対して、 > 実はなんらかの法則性を見出していることになるので、それを言語化して定義しなければ始まらない。 人間の情報処理の方法はまだ良く分かっていない。だからキッチリした法則性を見出すことは出来ない。 詳細が分かってないんだから123を人間がやっているというのは早計。というのがこちらの主張。 > こちらの主張は、「>>246 の123で代替できないようなタスクを人間が処理していると証明されていない」 > ということになるかな。 とりあえず就寝時の時計の針の音の例について、普段は気にならず、時には特に意味も無くフレームアップされる。 というのを123で説明してくれるかな。 > 人間が何をやっているか知ることは大事だが、もし人間のやっていることが現状機械で代替できるなら、 > それを知ることはシンギュラリティの達成条件にならない。 > 機械が人間と同じやり方でやらなければならない理由はない。 それで良いんじゃない。 そもそも人間を真似る必要が無ければ人間が何をしてるか気にする必要も無いと思うけど。 シンギュラリティの達成条件やそれに必要なAIというものを明確にしてくれればもっと話は単純になる。 とりあえず人間を真似るというアプローチはちょっと無理筋だろうから。
289 : 「難しさ」にいろんな段階があるんだけど、そのへんの議論が混同されやすい。 例えば、他の恒星に宇宙船を飛ばすとすると 1:原理的に無理:超光速で飛ぶ(物理法則に反する) 2:技術的に無理:光速近くまで加速する(加速するエンジン、支える外殻ができない) 3:経済的に無理:大容量エンジンで飛ぶ(コストが掛かり過ぎる。メリットがない) 4:社会的に無理:冷凍保存する。クローンを培養して飛ぶ(社会の同意が取れない) まず、人間が物理的な存在であることを考えれば、強いAIが「原理的に無理」でないことはほぼ全員納得してる。 議論がわかれるのは「技術的に無理」かどうか。 ただし少なくとも、「人間にできてコンピュータに無理」なことは、量のレベルで存在しても 質のレベルでは見つかっていない(質が定義されていない)。 それを乗り越えても「経済的に無理」なことはある。 たとえば、人間と同じようなハードウェアや脳を持つロボットを作るのは、兆単位の金をつぎ込めば 出来るかもしれないが、誰も求めていないし利益も得られないから、貴重な税金をつぎ込んでやる意味がない。 また、ロボットに人間と同じような人権を与えるのはとてもむずかしいので、 人間と同じような問題解決をするロボットを社会に存在させるのは「社会的に無理」だ。
290 : >>287 >これは何故かというと、人間の場合は長年の経験から知識やその使い方を学習しているから。 >言い換えれば周りの環境によってプログラミングされていると捉えることもできる。 これはおそらく「経済的に無理」なことだろうけれども、技術的には可能だろう(そうではない、という意見かもしれないが)。 採算度外視して、人間と同じように十数年教育にかけてデータ集めてよいのなら、だいぶハンデがなくなる。 ちなみにチューリングテストはもうすぐ達成される見込み(ローブナー賞)だし、 東大入試は正解があり、模範解答がある以上、質的に困難なことはそこまで存在しない。 シンギュラリティで言う「収穫加速の法則」は、経済的なコストが指数関数的に減少するということなので 今は経済的に無理なことでも、将来は達成される可能性がある。 >>288 >人間の情報処理の方法はまだ良く分かっていない。だからキッチリした法則性を見出すことは出来ない。 >詳細が分かってないんだから123を人間がやっているというのは早計。というのがこちらの主張。 そこは同意。ただ、それがシンギュラリティとは直接関係しない、というのがこちらの主張(繰り返しになるね)。 >とりあえず就寝時の時計の針の音の例について、普段は気にならず、時には特に意味も無くフレームアップされる。 >というのを123で説明してくれるかな。 >>267 で説明したけど、例えば「気にせず眠る」という上位層と、「騒音に耳を配る」という下位層が均衡してて 外乱の影響で変わってしまう例でモデル化できるから、>>246 の中だと1だね。普通のコンピュータ処理。 危険性の計算を外乱に任せてると捉えるなら、3も当てはまる。 >シンギュラリティの達成条件やそれに必要なAIというものを明確にしてくれればもっと話は単純になる。 人間の知性レベルで技術進化が予測できない、というのが条件。 機械単体、もしくは人間と機械を合わせたシステムが、自身よりさらに賢い(早く計算できる 多くの問題を解決できる)システムを作れるようになった時点、というのが妥当な定義かなあ。
291 : コンピューターが爆発的に進歩しました。 コンピューター「この宇宙で手に入る素材では、現在の 化学ロケット・石炭火力発電が絶対の限度です。 軌道エレベーターもワープも絶対に不可能です」 ってことになったら文明は進歩しないだろ?
292 : >>289 > まず、人間が物理的な存在であることを考えれば ここが根拠の無い仮定レベル
293 : >>289 まず前提として人間を唯物論で説明出来ると仮定する。>>292 のようにこの時点で異を唱える者もいるので、この部分の正否は保留しておく。 「技術的に無理」を>>289 のように定義するなら、人間と同等の知能を持つAIを開発することは可能だと考えている。 人間の脳(おそらく身体も)を完全にシミュレートすれば全く同じ物が出来ると考えるのが自然。 ただ、シミュレートといっても「どこまで丸め込めばいいか明らかになっていない」、「ミクロかつ広範囲をスキャンできる技術が無い」など課題は多々あるが、 文明が永久に存続し、時間と資源が無限に使える前提であればいつかは可能になるだろう。 個人的にはシンギュラリティの到来する「時期」に興味がある(>>289 の3,4の要素も含めた上で)。 >チューリングテストはもうすぐ達成される見込み それは90年代から言われていることなんだが、会話AIの進歩は他の分野に比べて著しく遅い。 特に日本語のように表現の自由度が高い言語でチューリングテストを突破するのはまだまだ現実的ではない。 日本で会話精度が高いAIとしてはiPhoneのSiriやSimSimiが挙げられるが、これは辞書型人工無脳といって「反応させる言葉と返答する文」のセットをデータベースから検索して返しているに過ぎない。 例としては「ありがとう→どういたしまして」といった単純なデータ。これを人間が手作業で作成している。 Siriはプラスアルファの機能が多く備わっているが、会話機能に限っていえば非常にシンプル。 これは90年代からある「ゆいぼっと」と全く同じ仕組みだが、会話精度が上がったように見えるのは単にデータ量が増えた(それを入力しているのは人間)からでしかない。 人工無脳の分野では他にもログ型やマルコフ連鎖型といったものが考案されているが、殆ど会話にならない。 さらに現状の会話AIでは文脈を考慮することが難しい。辞書型では直前の発言によって反応を分岐させるだけでも必要なデータ量が爆発的に増えるので、あらゆるパターンを手作業で入力するのはほぼ不可能。 それにもし力技でチューリングテストを突破することが出来たとしても、それは強いAIとは呼べないだろう。 入試問題に関しても、知識を中心に問われる科目に関しては早い段階で合格点を取れるようになるだろうが、国語の読解等はハードルが高い。
294 : >>289 >誰も求めていないし利益も得られない 俺が求めてるし、機械による人間の代替は産業革命以来のテーマだ。
295 : 誤解を生みそうな書き方になったので>>293 に少し補足。 「日本で会話精度が高いAI」は日本製という意味ではなく日本語に対応しているという意味で使った。
296 : ここ数日の議論について興味深く読んだが理解できたとは言えない機械屋の戯言だが、議論の枠組みについて少し提案したい 定義や実現について、ボトムアップな設計思想とトップダウンの設計思想がごちゃまぜになってないだろうか? ここで言うトップダウンは、アーキテクチャの概念レベル、人工知能の文脈でそのアウトライン設計の考え方で ボトムアップは結果論から遡った、人間の行きあたりばったりさをいかに実現するかという現場的解釈 >>260 で指摘された点の言いかえにすぎないんだが、それらを同じテーブルで議論してしまっているので、話がかみ合わずループしているように見える 両者は切り分けて考えた議論をした方が良いのではなかろうか?
297 : >>292 >>293 俺は保留する必要は無いと思う。 確かに根拠としては心もとないが、我々は既知世界で考えるしかないのであって、それを言い始めると「既知の物理法則に反する」事象を想定する必要すら出て来るのではなかろうか まずは既知世界では人間(生物)が物理的な存在以上のものであるよりも物理的存在であるとする方が確からしいので、 ノルマティブな妥当には到らないかもしれないがこのスレ的にはコンベンショナルな妥当にあたるのではなかろうか?
298 : >>278-279 まさにその部分に、以前>>121-122 あたりで挙げた「曖昧なカテゴライズ」の問題があると思うんだよな 経験も含めて、人間の脳は創発(気付き)も含めて、偶発的事象に依存しているようだ 就寝時の時計の針の例は非常に重要な指摘だと思う というのは、>>277 の云う「AI自身が必要なコードをアルゴリズムの段階から生成する」ことで 「予測不能な事態に対して自発的創造的に創意工夫ができる」AIについて議論していると理解しているが、 その生成そのものには先に書いた「曖昧なカテゴライズ」が強く寄与していると俺は考えている つまり、通常のAIはある特定のコードに従ってデータアクセスを選択するのだが、 人間の場合は偶発的な軸策の発火による偶発的な(しかし接続範囲の限られた)接続が 新しい発想、複数の経験や知見の接続による「気付き」を創発するのではなかろうか その副作用が時計の針の事例なんじゃないか ……これで繋がらないかな? ID:Lf2Zwbscは情報屋のようだから、機械屋の俺の戯言ではあまりタシにならないかもしれないが…
299 : >>291 なんで?文明の進歩は素材や領土だけで決まる訳じゃない。 >>293 力技でもなんでも「チューリングテスト」を通過することは、ある課題を人間と同程度達成できたことを意味する。 (ここでいうチューリングテスト合格は、ローブナー賞に基準(30%が人間と思う)を超えることでいいかな) 会話AIの原理はその説明のとおりだけど(ただし情報収集は既に自動化されてる!これは重要な違い)、 データベースが数千万件になれば、その結果は人間に予測不能なほどの質の向上を生む。 莫大な量の向上によって、人間が想定できないほどの質の向上が生まれてきたのがいままでの計算機の歴史。 ディープブルーもGPS将棋もワトソンも、力技にすぎないけれど、突き詰めた力技が 新しい定跡を発見したり、大局観を身につけたりする。ものすごい力技は質の違いを生む。 (あと日本語は別にそこまで自由度が高い言語ではない。日本語の研究が進んでないのは研究者や予算や市場の量が違うから) ワトソンの勝利は見事な成功例だから、実際動画見たほうがいいかも ttp://www.youtube.com/watch?v=o6oS64Bpx0g Jeopardyは普通のクイズと違って、問題文が疑問文形式じゃない。それでも計算機は当てられる。 >>294 成功も失敗もわからん技術開発に1兆円払うなら、海外から人間を輸入するほうがマシっすよ という判断を経団連や政治家はするだろうね。
300 : >>298 老婆心ながら「まだわかっていないこと」の原因に「別のわかっていないこと」を置くのは 妥当なようでいて、あまり科学的な推論ではないので、気をつけたほうがいい。俺はやらない。 あと、我々は人間なので、人間の審美眼で判断してしまうが、それは本質と異なるかもしれない。 たとえば我々は「創意工夫」や「創造性」という言葉に神秘的で知的な価値を起きがちだが 創意工夫といわれるものの実態は、ただの組み合わせにすぎないので、手順を知ってればバカでもできる。 コンピュータ生成俳句なんかでも(それを知らなければ)人は感動できる。 AIにおいて最も難しいのは、新しいものを創造することではなくて、その後に必要ないものを価値判断に基づいて 取捨選択することだったりする。素晴らしいコンピュータ俳句があったとしたら、それを産んだコンピュータより それを多数のクズの中から発見してきた人間の方がずっと賢い。 偶発的な発火による気付きを元に振る舞うシステムを作ること自体はそこまで難しくないだろうが、 そのシステムを意味のある形で動かすのはとても難しいと思う。 (だから、システムを作ってない哲学者の概念分類を、俺はあまり信用しない)
301 : >>299 >情報収集は既に自動化されてる これは天気予報やニュースの収集といった話だよね? 念のため言っておくと会話データベース自体の構築は完全な手動で、「ありがとう→どういたしまして」といった返答パターンを自動学習するのはまだ無理。 強いて言えばログ型がこれに当たるが、実用的な段階には達していない。 ここまで自動学習出来るようになれば確かに質の向上が生まれると思うが、少なくとも手作業で打ち込んだ返答パターンが10件だろうと1000万件だろうと内部処理が変わらない以上は見かけ上の会話精度が上がる以外に何か起こるとは思えない。 >ディープブルーもGPS将棋もワトソンも、力技にすぎないけれど、突き詰めた力技が >新しい定跡を発見したり、大局観を身につけたりする。ものすごい力技は質の違いを生む。 それらを「力技」と言ってしまうのか…個人的には十分高度なAIだと思うけど。 俺の言った「力技」を将棋AIで例えるなら初手からのあらゆるパターンを手動で登録することだよ。
302 : 情報収集について一つ書き忘れていたが、ワトソンのような質問応答システムに使う知識の収集もこれに含まれるね。
303 : >>300 意図的に触れないように努力してたんだが、遂に出てきてしまったか「価値」… 確かにそっち方面に論を進めると結局は「価値とは何ぞや」という話に収束してしまうんだよね あの半端な書き込みでそこまでスパッと進められるあなたに脱帽した >「まだわかっていないこと」の原因に「別のわかっていないこと」を置くのは >妥当なようでいて、あまり科学的な推論ではないので、気をつけたほうがいい。 そこはわかった上でやった。というか、それ以上の立論ができなかった、が正しい。 厳密に科学的では無いが、やや循環している論に別の視点を挿入できないかという努力をしてみた ノイズにしかならなかったようで申し訳ない 俺じゃあまだまだ勉強不足だわ…
304 : >>299 おまえバカだろ。
305 : >>304 はい、NGワード登録。 ここまで工夫が無いワンパターンな言い回しだと、登録も楽だわ。
306 : >>304 なにぃ!貴様表へ出ろ!!
307 : 人間の脳程度をエミュレーションするのに 素粒子レベルまで再現する必要はさすがにないだろうな。 なんとなくだけど。
308 : 【科学】人工臓器などを組み合わせ、歩行や会話が可能な人造人間「バイオニックマン」公開・アメリカ http://uni.2ch.net/test/read.cgi/newsplus/1382086366/ 1 :ラストボーイスカウト@空挺ラッコさん部隊 φ ★:2013/10/18(金) 17:52:46.29 ID:???0 [ワシントン 17日 ロイター] - 米ワシントンにあるスミソニアン航空宇宙博物館で17日、 人工臓器などを組み合わせて作られ、歩行や会話が可能な「人造人間」が公開された。 この人造人間「バイオニックマン」は身長183センチ、体重77キロで、肺や膵臓、循環系など 28の人工臓器から成る。これら臓器は大学などで開発されたものを利用し、英ロンドンのシャドー・ロボット社が 組み立てた。顔はあるが、表情はつくれず、実質的に皮膚はない。制作費は100万ドル(約9800万円)だという。 また、同社で設計工学を担当するロバート・ウォーバートン氏によると、バイオニックマンは、米アップルの 「iPhone(アイフォーン)」に搭載された音声認識ソフト「Siri(シリ)」のような会話が可能。 人格はウクライナ出身の13歳の男の子の想定でプログラミングされており、「会話する相手としては 礼儀正しいとは言えない」と語った。 ソース:http://www.excite.co.jp/News/odd/Reuters_newsml_TYE99H037.html 「バイオニックマン」 http://image.excite.co.jp/feed/news/Reuters/Reuters_newsml_TYE99H037_1.jpeg
309 : ここが裏だったとは知らなかった
310 : >>290 > >とりあえず就寝時の時計の針の音の例について、普段は気にならず、時には特に意味も無くフレームアップされる。 > >というのを123で説明してくれるかな。 > >>267 で説明したけど、例えば「気にせず眠る」という上位層と、「騒音に耳を配る」という下位層が均衡してて > 外乱の影響で変わってしまう例でモデル化できるから、>>246 の中だと1だね。普通のコンピュータ処理。 > 危険性の計算を外乱に任せてると捉えるなら、3も当てはまる。 意外と良い説明だった。割としっくり来る。 残念なのは上位層-下位層モデルと外乱の影響。と言うのが現状では確認のしようが無いことだ。 まだ分からん事だらけだから仮説しか作れんのは仕方が無いが。 > >シンギュラリティの達成条件やそれに必要なAIというものを明確にしてくれればもっと話は単純になる。 > 人間の知性レベルで技術進化が予測できない、というのが条件。 > 機械単体、もしくは人間と機械を合わせたシステムが、自身よりさらに賢い(早く計算できる > 多くの問題を解決できる)システムを作れるようになった時点、というのが妥当な定義かなあ。 ものすごく漠然としていると感じるのは僕だけだろうか。 >>309 良いレスthx
311 : >>297 > まずは既知世界では人間(生物)が物理的な存在以上のものであるよりも物理的存在であるとする方が確からしいので、 初耳だな。ソース教えて?
312 : >>311 ごめん、ソースというほどのソースは持ち合わせていない というか、結論だけ言うと「物理的な存在以上のものであるという再現可能事例が(俺の知る限り)未発見」というだけなんだ というのは、様々な自我や意識にアプローチする自然科学的論文の文脈から暗黙に仮定されていると読み取れるからなんだ 具体的にそういう「人間(の意識、或いは精神等)が物理的な存在か或いはそれ以上のものかに焦点を絞った論文は、俺の知る限り自然科学分野には寡少なのな もちろん「物理的な側面でどこまで追えるか」という過去に積み重ねられた基盤の上に乗っかっているだけだという指摘も確かであって、まともな知見があれば否定はしないだろう しかし、「既知世界では」物理的な存在「以上ものもの」であるという証拠は未だ発見されていない為、物理的存在であるとするのが妥当であるとせねば仮定論(厳しく言えば妄想論)にしかならないのではないかと また哲学の分野にそれを問い直す議論があるのは確かだが、哲学は本来「自明とされている概念を問い直す」学問でもあり、再現実証的ではない研究が多い ここでは確かに哲学的な議論にも言及されるから俺の>>297 の書き方は適切ではなかったかもしれないとは認めるが、 しかしAIという工学的分野に主軸を置いている以上、哲学的な分野は「今後予想される課題」という程度にとどめておかなければ、議論の根底的定義がバラバラになって発散するだけだと思うのだ 確かにノルマティブな妥当で言えば物理的な存在以上である可能性は考慮すべきだが、物理的以上の存在である事例或いは体系論が未構築な以上、そこはコンベンショナルな妥当とすべきではないか? ということが言いたかった 長々と申し訳ない
313 : >>301 どっちかっていうとワトソンのやり方に近いかな。 今のGoogle検索なんかは、音声認識をすると同時に、検索結果からフィードバックも集めてる。 Yahoo知恵袋やAmazonのリコメンドも、同じような会話学習用のデータベースになってる。 インターネットを膨大なデータベースと捉えると、自動で学習する系はすでにあちこちにある。 >俺の言った「力技」を将棋AIで例えるなら初手からのあらゆるパターンを手動で登録することだよ。 こちらは力技を、昔から考えられてるアルゴリズムを超多量に集めて頑張ることだと捉えてたけど、 手動を力技と呼ぶのであれば、既に「力技」ではない。 80年代のファミコンレベルの将棋AIと、初めてプロ棋士と公式に戦ったAIのボナンザは、 そこまですごい違いがあるわけではないが、前者の評価関数が数十なのに対して、後者は数万クラス。 評価関数自体は自動で集めてるが、つまりそれだけ集めると十分複雑な動きをする。 >>303 なんというか、考えたモデルで動くシステムを作ってみるのがいいと思う。応援はしてる。
314 : >>310 >残念なのは上位層-下位層モデルと外乱の影響。と言うのが現状では確認のしようが無いことだ。 >まだ分からん事だらけだから仮説しか作れんのは仕方が無いが。 俺は専門ではないけど、認知心理学では行動抑制のモデルがあって、ちょっと推察する以上に結構調べられてるよ。 >> 機械単体、もしくは人間と機械を合わせたシステムが、自身よりさらに賢い(早く計算できる >> 多くの問題を解決できる)システムを作れるようになった時点、というのが妥当な定義かなあ。 >ものすごく漠然としていると感じるのは僕だけだろうか。 多少曖昧になるのは仕方ないというか。 「人間には予測できない発展をするようになる点」がシンギュラリティだから、それ以降どうなるかは予測できないしな。 AがBより賢いという定義を「あらゆるゲームでAがBに勝てる」とすれば、もうちょっと明確になるかな。 >>311 >>312 いわゆるオッカムの剃刀。物理的な説明と実際の現象に矛盾が発生しない以上、余計なものを考える意味が無い。 あるいは、余計なものを考えたい側がその存在証明をする必要がある(いわゆる「悪魔の証明」) チャーマーズとかのクオリア系の人ですら「クオリアを考慮せずともこの世界の記述と矛盾しない」ってことは認めてる。 物理的なもので世界が説明できないとするのは、疑似科学者か、宗教家の中でもガチの原理主義者ぐらいじゃなかろうか。
315 : >>313 >インターネットを膨大なデータベースと捉えると、自動で学習する系はすでにあちこちにある。 質問応答システムに使われる自動学習であればその進歩は目覚ましい。 ワトソンもそうだし、Siriに使われているWolfram Alfaも十分実用的なレベルに達している。 ただし会話機能の核は相変わらず手動に留まっている。 >手動を力技と呼ぶのであれば、既に「力技」ではない。 それなら現状の会話AIは「力技」の域にすら達していないということで、こちらの主張としては同じ。 手動で作成した辞書をベースにしている限りはいくら返答パターンを増やしたところで人工無脳の域を越えることはない。
316 : >>314 > >残念なのは上位層-下位層モデルと外乱の影響。と言うのが現状では確認のしようが無いことだ。 > >まだ分からん事だらけだから仮説しか作れんのは仕方が無いが。 > 俺は専門ではないけど、認知心理学では行動抑制のモデルがあって、ちょっと推察する以上に結構調べられてるよ。 脳科学方面でも大脳辺縁系が衝動などを抑制していることは事実として分かってきてる。 でも「時計の針の音を無視する」とまで具体的なところまでは分からない。
317 : >>313 おまえバカだろ
318 : >>314 > チャーマーズとかのクオリア系の人ですら「クオリアを考慮せずともこの世界の記述と矛盾しない」ってことは認めてる。 > 物理的なもので世界が説明できないとするのは、疑似科学者か、宗教家の中でもガチの原理主義者ぐらいじゃなかろうか。 意識を存在するものとして扱う場合、それは物理的には説明できないよ 未だになのか永遠になのかはわからないけどね もしかしたら脳内の科学的反応で全て説明できるかもしれないし、脳だけでは説明できないかもしれない むしろ彼または彼女が本当の科学者ならば「物理的なものだけで世界が説明できる」と断言することは絶対にないはず 勿論その逆も然り クオリアなんて局所的なもの持ち出さずとも「意識」そのものがね
319 : 意識はとりあえず保留にしておこうぜ
320 : >>315 >手動で作成した辞書をベースにしている限りはいくら返答パターンを増やしたところで人工無脳の域を越えることはない。 逆に言うと、自動化が鍵だということかもしれんね。 会話サービスとしてSiriみたいなのが既に動いてるし、ロボットが動き始めれば現実のデータも自動で集まるかもな。 >>318 「意識を説明できるか」ではなくて、「意識があると考えても、ないと考えても、物理的には影響しない」 ということについて、科学者間では大体同意が取れてるということ。 意識の問題というのは、その存在が何か世界に違いを産まない限り、AIともシンギュラリティとも直接関係しない。
321 : SIを作りたいなら物凄く直接的に関係すると思うんですが
322 : 知能の定義とか意識とか言い出すとだいたい議論が収集つかなくなる そこに何か問題とか答えがあるような...
323 : 専ブラでNGワード登録するとワンパターンで退屈なレスが小気味良く消えてくれるなあ。w
324 : >>322 「知能」に対しては「自己の環境適応度を最大化するべく、環境の変化に能動的に最適応答する能力」とでもしたらいかがか。 この定義だと前にだれかが引き合いに出した粘菌も立派な知能を持っている事になるが、少なくとも俺はそう思う。 「意識」の定義は難しいな。たぶん、高度に発達した知能が備える機能の一部なんだろうけど。 まずは「人間が無意識にできる事できない事」を列挙してみてはいかがか。 「人間が無意識にできる事」というのは「既に獲得したアルゴリズムだけで対処でき、新たなアルゴリズムを発見する必要が無い事」だと思うが。 (ここでは、神経回路網に定着した条件反射的パターンも、アルゴリズムの一種とみなしている)
325 : >>324 いや、ちがうの。そうゆうことじゃなくって 「定義すること」で「実態と違うもの」を考えることになっちゃうの 例えば「幸せ」を定義しようとするとみんな解釈が違って結果的に 「じゃあ、お金があればいいんじゃん?」 みたいにわけわからんところに着地しているような感じがするのよ。
326 : >>318 つまり「意識を存在するものとして扱う」必要が今のところ見当たらないということだな 俺は強いAIが結果論的に意識を持つ可能性を考えているから言いたいことはわからいでもないが
327 : >>325 幸せの量を客観的に測る方法は結構あって、例えば現在より将来の収入に比例するとか いろんな研究結果が出てる それに対して、意識は客観的に測る方法がない だから保留するべきって結論は同意だが
328 : >>327 「幸せ」を出したのは例えばの話をしたかっただけ。 抽象的な概念を定義しようとすると堂々巡りになっちゃうことが多い感じがして、 そこは何かアプローチに間違いがあるんじゃないかってこと。 幸せがやっぱりお金次第ってのは面白いね。
329 : >>326 強いAI(>>321 で書いたがSIの方が正確かも)の定義の一つに「意識を持つ」てのが無かったっけ? だから>>321 のレスを書いたんだが 思い違いなら申し訳ない。調べりゃいいだけだが
330 : もちろん、「実際に意識を持っているかどうか」の判定が現在では不可能なのは知ってます
331 : 意識を持たずとも広汎な知的活動を行ってくれれば問題ない
332 : 意識なんか、存在しないとすれば、全て解決。 どうせ、他人に意識がある証明できないしね。 だから俺以外の人間は、皆、宇宙人が作ったロボット。
333 : それならむしろ自分も含めて全員ロボットの可能性の方が高い 自分の意識だと思ってるのはただのプログラム
334 : またシミュレーション仮説の話になるのか!
335 : 唯我論の立場を取る人は、自らの意思に沿わない他者が存在する事についてはどう説明するんだろう? 意思がたった一つしかないのであれば、他者の意思と衝突しようがあるまいに。
336 : 意思を持つのは自分だけでそれ以外はプログラムだって事だろ?
337 : 永井均を読めばいいよ
338 : >>327 いろんな測り方がある時点で絶対的な客観的指標ではないだろう。 その研究者はそう考えてみた。と言うだけでしょう。 なぜこんな簡単なことに気付かないのか。
339 : 「意思を持つのは自分だけでそれ以外はプログラム」という立場を取るのであれば、 その者は「たかがプログラムに対してすら、我を通せない自分」という たぶん不愉快であろう現実を受け入れざるを得なくなる。
340 : うちの猫ちゃんも全然言うこと聞いてくれないしな。
341 : >>329 SIというのは何?Simulated Intelligence? >>338 絶対的な客観的指標が作れないのは、自然科学以外の科学に共通してる。 心理学でよくある感性指標(幸福度もそうだけど)は、絶対的な値ではないけど 客観的に仮説を立てて大小を評価することができるでしょ。 これと異なり、意識のあるなしは誰が頑張っても客観的には測れない。 そこが大きな違い。
342 : >>341 SIはSynthetic Intelligenceの略
343 : 付け加えれば「人工(Artificial)」という言葉は本来紛い物に使う言葉(ex. 人工イクラ)なので 「人工知能(Artificial Inteligence)」とは知的ではないもの…つまりせいぜい弱いAIと定義されているものにしか使えない、 よって「強いAI」という言葉はそれ自体が形容矛盾であると指摘されたんだ 「合成(Synthetic)」という言葉を使うことでこの矛盾は回避される 人工イクラはサラダ油を使った偽物だが、合成イクラは鮭から生まれてないだけで組成などは本物のイクラってわけ
344 : >>342 >>343 なるほど、ありがとう。 だとすると、Synthetic Intelligenceより、本来の用語Artificial Intelligenceの方が シンギュラリティにおいて発生する知性には近いような気がする。 Syntheticというのは、既にあるものを再構成するようなイメージが強いけど、 AIは、必ずしも既にある何かを再現することを意味しないからね。 同様の理由で、シンギュラリティにおいて発生する知性は、必ずしも意識を持つ必要はないと思う。
345 : >>344 > Artificial Intelligenceの方がシンギュラリティにおいて発生する知性には近いような気がする。 ん?もしかしてちゃんと読んでくれてない? 形容矛盾なんだってば
346 : >>345 うーんとね。調べてみたんだけど、artificialは、正確には「天然」に対応する人工で、 人手で作られたものに使うみたい。 artificial lightは照明(太陽や火でない、電球とかLED)だし、artificial fertilizerは化学肥料のこと。 いずれも天然ではないけど、"light(明かり)"、"feritilizer(肥料)"でないとは言えない。機能は果たしてる。 同じように、artificial intelligenceも天然に生まれたものではないけどintelligenceの機能は果たす、 と考えるとこっちのほうがしっくり来る。強いAIも形容矛盾にはならない。 synthetic intelligenceと名づけた人は、天然の人間の知能に興味があったんじゃないかな。 SIは天然の知能の合成って意味だから、SIだと天然の知能(人間)が持ってる意識の再現は 視野に入るかもしれないけど、artificial intelligenceは、知能の機能的側面に興味があるから 合成を目指してるわけじゃないはず。資料もらえれば調べるよ。
347 : >>346 おお、すぐに調べるところはなんとも素晴らしいじゃないか、さすがです しかも言ってることもここにいるコテとは違ってわかりやすく、そして確からしく思える ↓これはgoogleの短縮URL(goo.gl)でお願いします。生URIだと長過ぎると怒られるし短縮URLをそのまま張ると「さくらが咲いていますよ」と怒られる酷い仕様… /gqioAx /mEmnjX http://en.wikipedia.org/wiki/Synthetic_intelligence John Haugeland proposes an analogy with simulated diamonds and synthetic diamonds—only the synthetic diamond is truly a diamond. Synthetic means that which is produced by synthesis; combining parts to form a whole, colloquially, a man-made version of that which has arisen naturally. As defined, a "synthetic intelligence" would therefore be man-made, but not a simulation. というわけで、Artificial Intelligenceという言葉ではそれは「本当の(≠天然の人間の)」知性を表せない 強いAIに使う場合はやはりAIという言葉は、厳密には形容矛盾となるようだ まあここまで書いておいて本当に申し訳無いんだが俺個人としては「強いAI」で充分通りが良いのでそれで構わないw wikipediaには The term "synthetic AI" is now sometimes used by researchers in the field to separate their work using subsymbolism, emergence, Psi-Theory, or other relatively new methods to define and create "true" intelligence from previous attempts, particularly those of GOFAI or weak AI. とあるので、正確に表現したいなら使うって感じのようだ ちなみにGOFAIというのはGood Old-Fashioned Artificial Intelligenceの略ね
348 : >>347 いやシンギュラリティという観点からすれば強いAIはSyntheticである必要は無いんだよ。Artificalで充分 ただ、確かに「強いAI」に天然の知性の意味を付加した用法をする人もいるから、その場合はSIの方が妥当なんだろう
349 : ヒント 人格障害
350 : 明晰夢を見られるように誘導してくれるヘッドバンド「LUCI」 http://gigazine.net/news/20131021-luci-dream-inducer/
351 : >>349 http://ja.wikipedia.org/wiki/%E5%A6%84%E6%83%B3%E6%80%A7%E3%83%91%E3%83%BC%E3%82%BD%E3%83%8A%E3%83%AA%E3%83%86%E3%82%A3%E9%9A%9C%E5%AE%B3 これか?
352 : 人格障害とAIがどう関係あるのかよく分かりませんが。 2chにpersonality disorderが一杯いるのは、何を今更だけど
353 : >>350 なんでもできる夢の中で、ずっと寝たまま過ごしたら、人は最後に何を望むのだろう?
354 :2013/10/22 >>353 夢から醒めること
TOP カテ一覧 スレ一覧 2ch元 削除依頼 ▲
反重力、永久機関、フリーエネルギー総合 4 (100)
反重力、永久機関、フリーエネルギー総合 4 (100)
反重力、永久機関、フリーエネルギー総合 4 (100)
反重力、永久機関、フリーエネルギー総合 4 (100)
反重力、永久機関、フリーエネルギー総合 4 (100)
反重力、永久機関、フリーエネルギー総合 4 (100)
--log9.info------------------
ネットカフェ難民の派遣あつまれー (141)
オフィス・マインってどうよ? (174)
【三菱】パジェロ製造【坂祝】 (465)
BIG6億円でも狙うしかない派遣、集まれ! (134)
【KWE】近鉄コスモスPart2【PDC】 (126)
【夏終了で】シンテイトラスト【仕事来ず】 (114)
【クンニ】プレミアライン・3【教祖】 (799)
みんな時給いくら? (250)
【日通アマゾン】アイライン18【事業所とその他】 (201)
秋田県の派遣事情Part1 (104)
派遣社員で労働組合をつくろうpart2 (124)
【日通アマゾン】ランスタッド【アイライン】 (108)
イマジカデジタルスケープ (205)
■派遣奴隷制度復活のために自民党を応援しよう■ (131)
キャリアシップについて聞きたいことがあります。 (856)
損保ジャパン被害者の会 (252)
--log55.com------------------
【エックスメン】X-MEN 67人目【ダーク・フェニックス】
スパイダーマン総合48
【片山慎三】岬の兄妹【イオンシネマ】
アリータ:バトル・エンジェル Alita: Battle Angel 8
Thor マイティ・ソー 総合スレ 3戦目
バンブルビー 【トランスフォーマーはじまりの物語】 Part.2
ゴジラ映画総合 GODZILLA 141
ゴジラ キング・オブ・モンスターズ