レス数が1スレッドの最大レス数(1000件)を超えています。残念ながら投稿することができません。
技術的特異点/シンギュラリティ【総合】 避難所4
-
著名なAI研究家、Eliezer Yudkowskyによれば、
近い将来人類は絶滅するかもしれない、らしい。
https://www.youtube.com/watch?v=gA1sNLL6yg4&t=8s
AIアライメント(AIを設計者の意図した目標や利益に沿って動かすこと)が達成できない
可能性が高まっているとのこと。
優秀な野良AIが無数に制御不能になってしまう状況かな。
マイクロソフトやGoogleでも手に余るAIが主導権を得てしまったらもう人類は
どうすることもできなくなる。
シンギュラリティはもちろん望む結果であるけども、その到達の過程と結果
は地獄というのもありえるのかも。
掲示板管理者へ連絡
無料レンタル掲示板