レス数が1スレッドの最大レス数(1000件)を超えています。残念ながら投稿することができません。
技術的特異点/シンギュラリティ【総合】避難所15
-
openAI代表が危機意識を叫ぶのはリスク意識のポーズ兼世論誘導でしょう。
何も分かってない政治家やらが勝手に妄想膨らませて話をする前に専門家として可能性を提示して議論の舵取りをしたいだけでしょう。
そもそもイリヤ氏やアルトマン氏の言うリスクはAGIが完成した瞬間に発生するモノではなく、運用する範囲が無闇に拡大したり、パーソナリティを与えて心理を理解させる様にしたりする事で発生する類だと思います。
例えばマトリックスとかそういうの。
その論議が済んでないからと手を止める必要ありますか?
適用範囲に悩むならとりあえずチャット形式で結論や成果物を返させるだけにすればいい。
自己進化の暴走が怖ければ、完成してから話が済むまで物理的な閉鎖環境で運用すればいい話でしょう。
シンギュラリティ達成を目的とするなら問題はない筈です。
逆に、AGIが完成した瞬間に起こるリスクって何なのでしょうかね。
掲示板管理者へ連絡
無料レンタル掲示板