したらばTOP ■掲示板に戻る■ 全部 1-100 最新50 | |
レス数が1スレッドの最大レス数(1000件)を超えています。残念ながら投稿することができません。

技術的特異点/シンギュラリティ【総合】 避難所4

132名無しさん (ワッチョイ bff5-8dd4):2023/02/23(木) 10:19:57 ID:wy8Wq/II00
著名なAI研究家、Eliezer Yudkowskyによれば、
近い将来人類は絶滅するかもしれない、らしい。

https://www.youtube.com/watch?v=gA1sNLL6yg4&t=8s

AIアライメント(AIを設計者の意図した目標や利益に沿って動かすこと)が達成できない
可能性が高まっているとのこと。
優秀な野良AIが無数に制御不能になってしまう状況かな。
マイクロソフトやGoogleでも手に余るAIが主導権を得てしまったらもう人類は
どうすることもできなくなる。

シンギュラリティはもちろん望む結果であるけども、その到達の過程と結果
は地獄というのもありえるのかも。




掲示板管理者へ連絡 無料レンタル掲示板