したらばTOP ■掲示板に戻る■ 全部 1-100 最新50 | メール | |

3月20日(月・祝)心と人工知能

1夫 正彦:2017/01/30(月) 20:07:36
担当:久保Sr.さん

ツイプラ:ttp://twipla.jp/events/241735

2夫 正彦:2017/01/30(月) 20:08:32
>久保さん

参考図書や簡単な内容など投稿していただければ幸いです。

3Pandora:2017/01/31(火) 18:11:04
お邪魔虫で失礼します。
いま、ジェイムス・バラットの『人工知能』を読んでます。サールを引き合いに出していたので興味があったのですが、サールを肯定して同時に否定している。
要するにサールの議論を理解してないんだなと思いました。
それにしても、ホーキングやビルゲイツまで、人工知能の反乱警告をだしているのは驚きでした。・・・・こうるさかったら無視してください。

4はじ銀:2017/01/31(火) 20:26:32
FBにて告知しました。

5はじ銀:2017/02/03(金) 21:39:51
人工知能の反乱については、T2のスカイネットみたいな話かもしれませんが否定は出来ませんよね。
人間は人間の論理で動く、人工知能は人工知能の論理で動く。互いの論理に齟齬があれば争いは起こるでしょう。
意志や意図などという言葉を含めるとややこしいですが、要は計算のプロセスと要因が違えば結果も違ってくる。
それを人間の目から見ると「反乱」というあたかも人間的意図をもった行動に見える、という話かと思いました。

6Pandora:2017/02/05(日) 14:03:19
パラットは、自我を持った人工知能を「AGI」人工汎用知能(ArtificialGeneralInterigence)と呼称しますが、これが要するに『自我』をもったAIのことです。
パラットはそれほど意識していないと思いますし、サールもその点を強調しているわけではないが、要するに高度なコンピュータに『自我』を持たせることができるのか否か。
このコンピュータは「自我」を持っているとどうして言えるのかが問題。
サールの「中国語の部屋」もこの手の問題。統語論と意味論の違いだと解説しているのは横山さん。
パラットが反乱の実例として挙げているのが、金融の投資システムだという。
>>>>
金融のコンピュータ化はあまりにも進みすぎていると思う。作り出してしまったモンスターを我々はコントロールできないのだ。そのモンスターが、2012年8月1日に再び襲いかかった。好ましくない形にプログラミングされたHFTアルゴリズムが、投資会社ナイトキヤピタルにわずか30分で4億4000万ドルの損失をもたらしたのだ。
これらの暴落には、私が予期しているたぐいのAI災害の要素がいくつも含まれている。すなわち、きわめて複雑でほぼ理解不可能なAIシステム、ほかのシステムやより幅広いIT環境との予測不可能な相互作用、そして、人間が介入しても無駄な、コンピュータスケールのスピードで起こるエラーだ。
P122

7横山信幸:2017/02/06(月) 00:21:12
AIに自我があるかどうかという問いは二封筒問題に似てると思う。問題設定が不十分で答えられるわけがない問題なのに、何故かみんなまるで意味ある問いのように勘違いしてしまう。
「第三者に自我がある」とはどういうときに言えると設定して考えるのかが定まってないと答えられないのだけど、出題者は、それに答えることができない。なぜなら、その答えがそのまま問いの答になってしまうから。

8Pandora:2017/02/08(水) 11:30:23
えっ!?
それでは横山さんは、サールの反論は不十分と考えてるわけ?
「意味論の獲得」=「自我の獲得」として、AIが意味論を獲得することは自我を得ることである、がいえる?

9横山信幸:2017/02/08(水) 17:59:56
僕のサール「意識の生物学的自然主義」に対する評価は
ttp://sets.cocolog-nifty.com/blog/2013/11/post-9e8e.html
にのせています。興味がおありでしたらどうぞ。

10Pandora:2017/02/12(日) 16:11:13
横山さんの主張
サールが意味論と統語論を区別して、統語論のみで解釈を与えようとする人工知能への反論は、意味論を取り違えている。サールの意味論は、厳密にいえば統語論を含む意味論であって、彼の反論の趣旨にそぐわないものである。私的言語を基軸とする言語ゲームの趣旨を踏襲すれば、それはそれで「非機能的な現象的意識」といった機能性のないものになってしまう。あげくのはてに「意識の生物学的自然主義」などというナンセンスな概念を生み出してしまう。なぜなら生物学的自然主義という言葉が、有意味であるとすれば、それは機能性を持つがゆえに最終、統語論に還元されるべきものだからである。サールはつまるところ同語反復の主張をしている。自同律はトートロジーである。

こんな感じの理解でもいいですか?
つまり、横山さんの考えでは、AIが自我を持つか否かを問うことは、結果トートロジーになるので意味がない。
となると、「AIは自我を持つ」と言ってもいいわけですね?
チューリングテストでは、今有力候補としてワトソンが挙げられているようですが、横山さんが審判者だとしてどんな質問を投げかけますか?

11横山信幸:2017/02/12(日) 18:26:00
僕のサール理解はそういう感じです。

どんなテストをすれば第三者に「自我がある」と判断するのかという問題については、その判断のルール設定をしてもらえればどんなルールでもアリだと思っています。例えば「何らかの質問に適切に答えられればそれを自我のあることだと判断する」って方法もあるでしょうし、「見知らぬ状況で戸惑っていればそれを自我のあることだと判断する」って方法もあるでしょう。絶対的な方法なんてもんは無いと思ってますので、そのうちのどれが最も適切かというのは、僕としてはあまり興味がなく、「どうでも良いから、言われたとおりにします」という答えになってしまいます。
ただ、指定された方法が「絶対的なやり方だ」と言われたなら「絶対的な方法なんてあるわけ無い」とは言いますが。

12Pandora:2017/02/19(日) 11:54:16
>ただ、指定された方法が「絶対的なやり方だ」と言われたなら「絶対的な方法なんてあるわけ無い」とは言いますが
わたしは「これが絶対的なやり方だ!」というスタンスで行ってみますね。例えば
(1) 車で走行中前方に岩が道を塞いでいた。
この場合、道具(建機など)を使って岩を取り除くだろう。
(2) 行く手を、羊の群れがたむろしていた。
この場合、警笛を鳴らす、追い立てるなどの措置をするだろう。
(1) と(2)の違いを比較すると(2)は相手に対して(目的論的存在者)自我を持つ象であるとの認識がある。ゆえに脅しという警告を発するわけだ。一方の岩(因果論的存在者)に対して、その重量とか形状とかを考慮してその除去方法を考える。
AIが自我を持つか否かはそれが、因果論的存在者であるか目的論的存在者であるかを判別すればよい。
因果論的存在者の動きを論理式であらわすと・・・・
F:対象の事実をあらわす命題  
S:Fに対して作用する刺激
G:Fの結果導出される対象の状態
(F∧S)⊃G
これにたいして目的論的存在者の動きを論理式で表すと・・・・
上の例で自我の認識する状態A  A:私は攻撃される
VA:私は攻撃されるのはいやだ。 
PA:私は攻撃されるかもしれない。
VS:私の存在価値
(VA∧PA)⊃VS
この二つを比較して問題であるのは、前者の命題が普遍的なものであるのに対して、後者は主観的なものであることだ。
VA,PAは正確には「私は・・・・『私が攻撃される』」という命題的態度である。
警笛を鳴らされて脅された状態でVS:自我の存在価値は負の状態である。
VSはその存在価値を負より正に導こうとするポテンシャルを持つ。具体的には「今の私はよい、ないしわるい」というそのレベルである。
VSポテンシャルがその場所から逃走するという行動を引き起こす。
主観的命題が問題であるのは、これはいわば、他我問題であって哲学的ゾンビの提唱でもある。後者が主観的であるというのはVSポテンシャルが、必ずしも逃走という結果を引き起こすとは限らない。羊でなくバファローの群れだったら警笛に対して立ち向かってくる可能性もあるのだ。
>「自我がある」と判断するのかという問題については、その判断のルール設定をしてもらえればどんなルールでもアリだと思っています。
これこそ哲学的問題だと思うのですが…横山さんのやり方って、すべてトートロジーにもっていって、回答不能とされているのでは?

13Pandora:2017/02/19(日) 16:50:32
>絶対的な方法なんてもんは無いと思ってますので、そのうちのどれが最も適切か
>というのは、僕としてはあまり興味がなく、「どうでも良いから、言われたとおり
>にします」という答えになってしまいます。
こういわれている割には「哲学的ゾンビ」について結構述べられていますね。
わたしは筒学的ゾンビの解明とチューリングテストは根底で同じ問題だと思いますが
横山さんは違いますか?

14横山信幸:2017/02/19(日) 17:04:25
AIが自我を持つか否かを問うことは、結果トートロジーになるので意味がない。
と同様に、第三者が自我をもつかどうか(哲学ゾンビかどうか)を問うのも、意味がないと思ってます。

どんな反応があれば自我があると判断するのに適当か、というのは神経外科とか脳科学とかサイエンスの領域で判断されるべきことだと思っています。哲学が言えるのは、その「○○があれば自我がある」というような文はすべてトートロジーでしかない、ということまでだと思います。

15Pandora:2017/02/19(日) 20:17:28
すみません論理学の復習になりますが・・・
トートロジー(恒真命題)・・・原子式の真理値によらず常に真となる論理式
対して
矛盾式・・・原子式の真理値によらず常に偽となる論理式
トートロジーには 同一律、排中律、矛盾律、前件肯定式、後件否定式、対偶律、選言的三段論法、ド・モルガンの法則、推移律、分配律・・・などがありますが、横山さんの言うのはどれですか?横山さんのHPをすべて見ているわけではありませんので・・・
>第三者が自我をもつかどうか(哲学ゾンビかどうか)を問うのも、意味がないと思ってます。
私の見せていただいた哲学ゾンビに関するところでは、なぜトートロジーになるかよくわかりませんでした。意味がないと思ってる、のであって、意味がない、の断言ではないですね。
排中律でやってみると「他者に『自我』があるかは、あるかないかだ」が結論であればトートロジーであると言えますが、問題の追求放棄にもみえますよね。
なぜ、そういえるのか・・・。
ほか、詳しく記述してある部分を提示いただければ幸いです・・・。

16横山信幸:2017/02/19(日) 20:37:48
僕は、ある記述の真偽を断定するための基準を定めないままに記述の真偽を言うことには意味がないと考えています。なので、「ある第三者に自我があるかないか」を断定するためにはその判定基準を定めなければならないはずだと考えています。そして、その基準を例えば「ある反応が現れたならば自我があるとする」とする場合には、その基準における語りかたによる話としてに限ってその真偽に意味があることになります。ただし、その有意味というのは、その「ある反応があったかいなか」を示す意味での有意味であり、「自我があるかいなか」という点でいうと「ある反応が現れたならば自我があるとすると、その反応が現れたのだから自我がある」というだけのことを言っているに過ぎません。
「ある反応があった」は有意味で、その意味では「自我がある」も有意味だと言えますが、それ以上の意味を問おうとすれば無意味にしかならない。


と、そういうことを言いたかったのです。

17横山信幸:2017/02/19(日) 20:42:08
だから、自我についてのはなしは、「ある反応があれば自我があるとすると、ある反応があれば自我がある」という語りかたになってしまわざるを得ないので、その意味でトートロジーだとしたのです。

18Pandora:2017/02/20(月) 07:32:53
横山さんの論旨は同一律ですね。
>真偽を断定するための基準を定めないままに記述の真偽を言うことには意味がない
推論のための公理のようなものでしょうか。
公理から定理に向かいますね。
>「ある反応があった」は有意味で、その意味では「自我がある」も有意味だと言えますが、それ以上の意味を問おうとすれば無意味にしかならない。
「判定のつかない第三者(といわれるもの)に自我があるかないか」問うことをどうして同一律にもっていこうとされるのかわかりません。
この言い方では、ヒッグス粒子でもニュートリノでも同様に言えるのでは?
不明の第三者に刺激を与えて、(会話を持ち掛ける、を含む)ある反応があった、これは自我の存在を認める、でそれが議論の対象なのでは?それ以上の意味を求めてはいません。
横山さんの方式でも
(1) 「自我」とは何か、その特性。
(2) 「自我」が存在する、というのは、どうしたらいえるのか?
はじめの横山さんの推論規則に矛盾するものでもありません。

19横山信幸:2017/02/20(月) 13:53:48
その返事はすでに回答したものの繰り返しになるもの以外は思い付きませんので、これ以上のお答えはできかねます。

20横山信幸:2017/02/21(火) 15:41:10
>横山さんの論旨は同一律ですね。

僕の話のどこに同一律が出てきたのか、なぜ僕の論旨が同一律なのか、僕の論旨が同一律だとはどういう意味なのか、どれもわかりません。

21はじ銀:2017/03/20(月) 11:31:24
ちょっと遅れますが、参戦予定ですm(_ _)m

22横山信幸:2017/03/20(月) 17:39:50
野口さん、久保さん、
それぞれのスレッドに感想を書くべきなのかもしれませんが、それも煩雑なのでこちらに一括して書かせてもらいます。
心身問題はこれまでも何度か討論を重ねてきたので、そろそろネタ切れになってしまうかもしれないと、実は心配してたのですが、いやいやどうして、面白かったですねー。
お二方とも、発表ありがとうございました。

皆さんの議論を聞ききながら、意識とか心などというものは、「0-100」で「ある」とか「無い」とか決めなくてもいいものなのだなぁ、ということをしみじみと感じてました。一人の人間のなかでも意識が大きく深く「ある」ときもあれば薄ぅくしか「ない」ときもあり、人間に比べてチンパンジーの意識は小さく、ミミズはもっと小さい。というような言い方をしても良いんじゃないか。サーモスタットの意識はめちゃくちゃ薄いけどでも「0」だと言い切らなくっても良いんじゃないか。そんな風に考えると、AIが意識を持つかどうかというのも、ゾンビ議論のようなナンセンスに陥らずに、話がしやすくなるような気がしました。
そんなことなどをいろいろと考えながら、「価値系」などという新しい視点も教えてもらえたりして、すごく面白い4時間でした。

23ウラサキ:2017/03/20(月) 18:40:46
久保さんのお話の前提として「心」の定義に「自然物(人工物でない)」ってのが含まれていたようで、
「ロボットは心を持ちえない」という命題が分析命題になってしまったようです。


新着レスの表示


名前: E-mail(省略可)

※書き込む際の注意事項はこちら

※画像アップローダーはこちら

(画像を表示できるのは「画像リンクのサムネイル表示」がオンの掲示板に限ります)

掲示板管理者へ連絡 無料レンタル掲示板