したらばTOP ■掲示板に戻る■ 全部 1-100 最新50 | メール | |

各種イノベーション・新発明・新技術など

330名無しさん:2016/04/03(日) 22:24:57
>>329

 このような場合、人工知能にどのような判断をさせればよいのだろう。乗員を犠牲にして、前方の子どもを助けるのか。しかし、乗員を犠牲にするプログラムがなされたクルマは売れないだろう。

「人数の少ないほうを犠牲にする」とプログラムすればいいのだろうか。そうすると、人工知能には「太ったCさんを線路につき落とす」可能性が開けてしまう。論理的にはそうなる。助けるために殺人を犯すことを是とする機械が出現する。この延長は、人工知能を搭載した殺人兵器だろう。味方をほぼ完全に識別し、敵をせん滅する。あのダークな「ターミネーター=破壊的ディストピア」に一歩近づくロボットがつくれるのだ。悪意を持った人工知能。機械が意識に目覚めなくても、マッドサイエンティストと蒙昧な政治家がいれば、それはすぐにでもできそうだ。

・第一条:ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。

・第二条:ロボットは人間に与えられた命令に服従しなければならない。ただし、与えられた命令が、第一条に反する場合は、この限りでない。

 これは、SF作家のアイザック・アシモフが提唱したロボット三原則だが、こうプログラムしたとしても問題は解決されない。

 絶対に事故の起きないクルマをつくれればいいのだろうが、かなり先のことになるだろう。人間は、システム、仕組み、ハードウェア、ソフトウェアにしても、誤謬のないものをつくったことは歴史上ないのだから。

 さらに、人工知能搭載のクルマが起こした事故の責任は誰が取るのか、という問題が残る。所有者か、プログラム開発者か、クルマメーカーか。それとも責任は問えないのか。

●自立する機械を出現させるには「倫理」が必要

 ドイツのメルケル首相が脱原発を決める際に哲学者や宗教家を必要としたように、人工知能の開発に、倫理学者や法学者、哲学者、宗教家などが数多く参加することになるだろう。なぜなら、「この先に人間がどんな社会をつくっていくのか」という議論になるはずだからである。

 グーグルがディープマインド社の買収にともない社内に「人工知能倫理委員会(AI ethics board)」の設置をしたのが、2014年初頭。日本の人工知能学会で第1回目の倫理委員会が開催されたのが14年12月。「人工知能と倫理の問題」に関する議論は、すでに動き出しているのだ。


新着レスの表示


名前: E-mail(省略可)

※書き込む際の注意事項はこちら

※画像アップローダーはこちら

(画像を表示できるのは「画像リンクのサムネイル表示」がオンの掲示板に限ります)

掲示板管理者へ連絡 無料レンタル掲示板