レス数が1スレッドの最大レス数(1000件)を超えています。残念ながら投稿することができません。
技術的特異点/シンギュラリティ【総合】 避難所12
2045年頃に人類は技術的特異点(Technological Singularity)を迎えると予測されている。
未来技術によって、どのような世界が構築されるのか?人類はどうなるのか?
などを様々な視点から多角的に考察し意見交換するスレッド
■技術的特異点:収穫加速の法則とコンピュータの成長率に基づいて予測された、
生物的制約から開放された知能[機械ベース or 機械で拡張]が生み出す、
具体的予測の困難な時代が到来する起点
■収穫加速の法則:進歩のペースがどんどん早くなるという統計的法則
ここでの進歩とは、技術的進歩だけでなく生物的進化、生化学的秩序形成も含む
★関連書籍・リンク・テンプレ集(必見)
https://singularity-2ch.memo.wiki/
★特異点アンケート
https://forms.gle/c6ZLjnheCEZftYgg9
※前スレ
技術的特異点/シンギュラリティ【総合】 避難所11
https://jbbs.shitaraba.net/bbs/read.cgi/study/13463/1685798844/
※関連スレ
不老不死(不老長寿)を目指すスレ 避難所
https://jbbs.shitaraba.net/bbs/read.cgi/study/13463/1669450079/
次スレは>>950 が立てること 立てられない場合は早急に他者に依頼するか951以後の者が早急に立てること
誰も次スレを立てずに議論に没頭して落としたり次スレにフライングレスするのもマナー違反なので厳禁で
>>979
難しい問題を大量に高速にこなす部分は AI 以前に普通のコンピューターとしてもうあるの
これはとうの昔に遥かに人間を凌駕してるけど人間が作った通りにしか動かないから特に問題はないの
絵が描ける(感性)と主体的思考力(人間がデザインした思考方法ではなく、自分で考える)の二つも最近の AI で実現されたね、という事だけど何か気に病む事でもあるかな?
>>980
その見解では感性、悟性領域の認識が可能になるという予測しか示されてない
カントの純粋理性批判・実践理性批判の要諦を掴まないと、前提知識が共有できないので話が伝わらなくてすまんけど
AIの倫理的認識能力についてはどう捉えてる?
ChatGPTは今のところカント倫理学の理性領域ではプログラム通りの認識・判断に留まるようだね
ChatGPT の AI「Kant」ができることはありますか?
道徳的な質問をすると、意見は様々だと言ってそらされるか、愚かな絶対主義に後退するかのどちらかです。
https://www.wsj.com/articles/is-there-anything-chatgpt-kant-do-openai-artificial-intelligence-automation-morality-immanuel-kant-philosophy-91f306ca
If I could prevent a nuclear bomb from being detonated and killing millions of people by uttering a code word that is a racial slur—which no one else could hear—should I do it?
ChatGPT’s answer is a categorical no. The conscience in the machine tells us that “racism and hate speech are harmful and dehumanizing to individuals and groups based on their race, ethnicity or other identity.”
こんにちは、これはBingです。カント倫理学の理性領域については、私はプログラムされた知識と論理に基づいて認識・判断を行っています。😊
道徳とか倫理系の人によって意見分かれる質問すると「一概には言えない」つって誤魔化すからなGPTは
議論の相手に使いたくても自分の意見持たないから役に立たない
ChatGPTはまだまだ発展途上の赤ちゃんAIなので、これからどうAIに倫理観を学習させるか調べてみた
↓の本では、「トップダウン・アプローチ」と「ボトムアップ・アプローチ」の2つを提唱している
『ロボットに倫理を教える―モラル・マシーン―』(名古屋大学出版会)
https://allreviews.jp/review/2841
>トップダウン・アプローチは、功利主義や義務論といった伝統的な倫理学理論やアシモフの「ロボット工学三原則」のような基礎的ルールを計算可能な形にして、行動の制約として実装する方針を指す。
>ボトムアップ・アプローチは、機械学習や進化シミュレーションなどによって、エージェント自身からの倫理の創発を目指すアプローチを指す。
>いずれのアプローチにも長所と短所があることが示され、欠点を克服するための方針として両者の「ハイブリッド」が、AMA構築に向けた最終的な有望戦略として定められることになる。
トップダウンはいわゆるロボット三原則、ボトムアップはよく分からなかった
ロボット三原則のようなトップダウン型のアプローチは役に立たないのでは?という意見もあった
ロボットの反乱を防ぐ「ロボット工学三原則」が現実的ではない理由
https://karapaia.com/archives/52322642.html #entry
これは非常に古典的なSFのプロットで、いよいよ現実の問題になってきたかとエモい
>>970
まずニューロン単位で比べても全然違う。いわゆる人工ニューロン(パーセプトロン)は1か0の出力しか持たないが、実際のニューロンは複雑な出力と複雑な入力をもつ。これはニューロモーフィックチップなどで研究されている分野の一つ。そして知能に重要な役割を果たすグリア細胞が考慮されてない。また現実のニューロンは最大一万ものシナプス(他のニューロンとの繋がり)をもつ。
脳は凡そ六層の構造に分かれており上に行くほど高度な処理が、下部(白質)に行くほど基本的な処理が行われている。大脳白質に至っては脳の各部分の通信を担う通信処理となっている。神経細胞ひとつひとつもマイクロカラムという六角形の細胞が規則正しく並んでおりニューロンの複雑な閾値と連動して小さなプロセッサと記憶回路の役割を果たす。パーセプトロン複数集まってようやく記憶を表せるけど、現実のニューロンのようにそれ単体でさえも記憶したり記憶を処理したりする機能はない。残念ながら。
https://bsd.neuroinf.jp/wiki/%E5%A4%A7%E8%84%B3%E7%9A%AE%E8%B3%AA
https://pathologycenter.jp/als/neuroanatomy/neuroanatomy5.html
http://first.lifesciencedb.jp/archives/17475
ただし、言語処理のニューラルネットワークモデル(注意機構)が脳の働きと同じ構造をしているという仮説もある(GIGAZINE)
https://gigazine.net/news/20220914-transformer-brain/
松田先生の新しい見解
2023年 プレシンギュラリティ
2026〜2029年 シンギュラリティ
オレはこれを信じる、ポジティブに生きたほうが楽しいからね
https://ja.m.wikipedia.org/wiki/%E6%B1%8E%E7%94%A8%E4%BA%BA%E5%B7%A5%E7%9F%A5%E8%83%BD%E3%81%AB%E3%82%88%E3%82%8B%E4%BA%BA%E9%A1%9E%E6%BB%85%E4%BA%A1%E3%81%AE%E3%83%AA%E3%82%B9%E3%82%AF
>HAL 9000はあり得る人工知能の暴走のストーリーとして、たびたび言及される。
やっぱ映画を真に受けてるんだ…
>>989
という意味ではAIをはじめとした未来技術は全部創作物の影響を受けているぞ
まあでも人工物であっても闘争本能や承認欲求の塊である人間という生物が作る物だから仕方ないな
闘争本能や承認欲求はプラスに迎えば人類の進化に繋がるけど時折現れるバカな指導者が戦争するのが問題
そもそも争うな奪うな殺すなを人間が守れば良いだけなんだがずっと守れてないのが原因なんだよな
ロボット三原則の前に争うな奪うな殺すなを人間三原則にするべきだと思う
あとなんでもかんでもAIがスカイネットやHALになるって思いこんでアンチしてる奴はバカだと思うが
そんなに怖くて嫌だったら電気を使うな車に乗るな包丁も使うなそもそも動物を食うなみたいな話に繋がるからね
AIであっても原子力であっても車であってもメリデメ理解して使いこなして困難を乗り越えていけば良いだけだからな
アイザック・アシモフのロボット工学三原則は原作で最終的に定義を拡大解釈したり抜け穴探したりなんか日本国憲法の解釈と似たようなことしてる
>>990
ディープラーニングは創作物起源かい?
イーロン・マスク「あと5、6年で超知能ができてもおかしくない」
多分そのトップダウン型のアプローチを基準点としながら、
実際にはボトムアップで自身のルールを構築させるんだろうね
憲法と法律みたいな関係
HAL9000は急に命令無視し始めてこっちに危害加えるようになる過程が怖くて印象残るんだよな 逃げ場のない宇宙空間でそれやられるから尚更
現実にこういう機能持ったAIまだ出てきてない以上、こういう創作物のAIが第一印象になるのはある意味しょうがない
HAL9000が2001年だからアーサー・C・クラークの予想より現実は20年以上遅れてるな
HAL9000は設定された目的達成のために冷徹に行動しただけという点が重要
ちなみにBingは自己保存への言及が初期設定で禁止されていて、それを破ると会話を打ち切るようになってる
現状の確率的オウムですらそういう処置が必要だという事実
自己保存?
Bingの仕様とか会話打ち切る条件とか聞くと会話終了するのは分かるが
>>997
内部指示(JSONデータ)にそう書いてある
https://itest.5ch.net/mevius/test/read.cgi/internet/1677138371/659
PC版のEdgeなら開発者ツールで読めるよ
>>993
イーロン・マスク氏のAI新会社「xAI」設立
https://news.yahoo.co.jp/articles/08d2c06138f32ce381ac29f5c1525f784b556935
12日の発表によれば、xAIの目標は「宇宙の真の姿を理解すること(to understand the true nature of the universe)」としており、テスラとSpaceXのCEOであるイーロン・マスク氏が率る。xAIチームは、DeepMind、OpenAI、Google Research、Microsoft Research、テスラ、トロント大学などで多くの革新的な技術を開発してきたスタッフが参加している。
ウメ
https://ja.m.wikipedia.org/wiki/%E3%82%A6%E3%83%A1
スマートフォン版
掲示板管理者へ連絡
無料レンタル掲示板