レス数が1スレッドの最大レス数(1000件)を超えています。残念ながら投稿することができません。
技術的特異点/シンギュラリティ【総合】避難所 36
2045年頃に人類は技術的特異点(Technological Singularity)を迎えると予測されている。
未来技術によって、どのような世界が構築されるのか?人類はどうなるのか?
などを様々な視点から多角的に考察し意見交換するスレッド
■技術的特異点:収穫加速の法則と半導体微細化の進歩曲線に基づいて予測された、
生物的制約から開放された知能[機械ベース or 拡張脳?]が生み出すとされる
具体的予測の困難な時代が到来する起点
■収穫加速の法則:一つの発見が新たな技術を生み出し、その技術が他の発明を生み出すという連鎖的な反応が、科学技術全体を進歩させるという仮説
★関連書籍・リンク・テンプレ集(必修)
https://singularity-2ch.memo.wiki/
★特異点アンケート
https://forms.gle/c6ZLjnheCEZftYgg9
※前スレ
技術的特異点/シンギュラリティ【総合】避難所 35
https://jbbs.shitaraba.net/bbs/read.cgi/study/13463/1748512611/
※不老技術の動向と医学関連はこちら
不老不死(不老長寿)を目指すスレ 避難所
https://jbbs.shitaraba.net/bbs/read.cgi/study/13463/1669450079/
次スレは>>950 が立てること 立てられない場合は早急に他者に依頼するか951以後の者が早急に立てること
誰も次スレを立てずに議論に没頭して落としたり次スレにフライングレスしないこと
未来技術板のURLは書かないし、あちらから誘導もしないこと
まあ生成AIに自動車の運転を任せるのは無理やろね
ハルシネーションで事故を起こされたらたまったもんじゃないw
音声案内程度なら間違っても笑って許されるだろうけど
イーロン・マスク、テスラ車におけるGrok AI統合を発表
https://share.google/np6GqrqBeN7twxedz
どのような形で統合していくかは俺はテスラの技術者じゃないから知らんけど、アメリカの車両OSを逆コンパイルしている人間がいろいろと報告している
ちなみにイーロン・マスクは以前テスラで使ってた30万行のルールベースのプログラムを全て破棄して、AIベースに全て書き換えた実績がある
常識はずれのどんな無茶なことでもやるのがこの男
>>951
自己回帰トランスフォーマーでは無いがニューラルネットワークモデルは使われているぞ?
日本とかがやってるルールベースのOSを全て破棄して一からニューラルネットワーク用に書き直したんだよ
AI自動運転に変革の波、Tesla・中国推進の「E2E」には反論も | 日経クロステック
https://share.google/UATbfN327PFkkEIM8
AI(人工知能)技術の進化に伴い、クルマの自動運転に変革の波が押し寄せている。脚光を浴びているのが、車両周囲の認識から操作までを全面的にAIが担う「E2E(End to End)」の自動運転技術だ。米Tesla(テスラ)や中国勢などが推進している。
Grok4についてイーロン・マスクはGrok4が他のAIと違うところは現実世界とやり取りをして仮説を検証することで、そのことが知能爆発に繋がると言っている。
「他のAIとの最も大きな違いはオプティマスのようなヒューマノイドロボットを通して現実世界とやり取りして仮説を検証できることです。私たちは本当はどこに位置しているのかを考えてみましょう。つまり私たちは巨大な知能爆発の始まりにいるということです」
https://x.com/DGetback47618/status/1944256940181516546
生成AIに『ポチョムキン理解』のような現象があるならば、たとえ現実世界とのやり取りを通じて仮説を検証したとしても、
そもそもAIが本質的に理解していない以上、その検証自体が意味をなさないでないかい。
イーロンタイムだから
>>957
「ポチョムキン理解」って用語がキャッチーなだけで、人間にも普通にある現象でしょ
説明できても実践できない、みたいなことは人間にも結構多い
純粋な計算問題でも、練習した例題から少し数字や式の形が変わるだけで
途端に解けなくなるとかよくある話で、それだって結局は反復練習が足りないだけ
本質的に理解してないから練習しても無駄、なんて話ではない
つまりAIはもっと学習するべきだし、したら成果は上がるだろう
何回も言ってるけど、あのポチョムキン理解とか言うテストは学習型で生じてるだけだろ
それも前から知られてたことを言い回してるだけで用語を流行らしたいだけじゃん
Xでも誰も相手にしてないよ
そもそも「知ってる」とはどのレベルなのかな?
「単語を知ってる」、「それのカテゴリや取り巻く環境を知ってる」、「それを他の知識や日常に取り入れられるレベルで知ってる」
まぁAIなら有名な単語であればカテゴリや取り巻く環境くらいなら知ってるだろうな、ただ知識の化学反応を起こせるレベルのものはまだ無いんじゃないかな?
だからxAIの開発チームは推論モデルで再帰的自己改善と知能爆発を開発ツールとして組み込んだことを明言したんだろ?
この話毎回ループしてるだろ?
>>961
論文によると、概念について訊かれると「正確に説明できる」が、
概念の適用段階になると「人間ではあり得ない概念適用ミスを犯す」とされている。
Potemkin理解の定義
“Potemkin villages”の比喩から,「Potemkin理解」とは,人間の誤解とは矛盾するパターンで正解を返すことで“見せかけ”の理解を作り出す現象を指す。
具体例:GPT-4oがABAB韻律を「正しく説明」できても,自身のルールで文章を生成・評価できない事例が示される(図1)
https://arxiv.org/html/2506.21521v1/x1.png
Potemkin Understanding in Large Language Models
https://arxiv.org/html/2506.21521v1
ヤンニョムチキンみたいな用語が真新しいかと言うと別にそんなことはない
LLMが人間並の理解力をまだ持ってないのはGPT3.5の頃からとっくに把握されてるし、それを焼き直しただけに見える
最先端AI開発組織の人らはそんなの当然分かっててじゃあどう性能上げるかってのを日々考えてると思うし大丈夫だよ
知ってる単語量なら昭和の頃のコンピュータやAIでも人間を抜いてたんだよな。翻訳機とかもあったし。
今のAIも大規模言語モデルで知ってる単語や語彙の量はとっくに賢い人間すら抜き去ってるんだけど応用しようとする際に間違いが起きるから今それを研究者がなんとかしようとしてる段階。
>>909
少なくともGrok4のライブストリームでは「イーロン・マスクとGrokのエンジニアはGrok4で再帰的自己改善と知能爆発を開発ツールとして組み込んだことを明言」なんて言ってないけど
これ普通に嘘情報じゃね?フェイクニュースだろ。
AI StudioでGemini 2.0 Flashに聞き取らせたけど「明確な言及は見当たらなかった」と言ってるぞ。
これの具体的な情報ソースってどこ?
Grok 4 Demo Livestream / X
https://x.com/i/broadcasts/1lDGLzplWnyxm
それがTransformer型の弱点で何年も前から指摘されていること
それを改善するために組み込まれたのが推論型で次期バージョンGPT-5で一体化する予定
そしてxAIは組み込んだって言ってるわけ
それが出る直前に、またTransformer型の弱点を掘り起こして騒いでるだけだから誰も反応しないんだよ
別にAIだけでなく人間もハルシネーションするんだよな
悪質な罵りとかまさにそれ
>>968
ここで詳しく説明してるよ
https://x.com/DGetback47618/status/1944256253267722721
>>979
お前管理人だったんかw
>>982
「RLを10倍投入した」とライブストリームでは言ってるだけで
RILなんて言ってないんだよなぁ
聞き間違いじゃね?RLをRILと聞き間違えて拡大解釈してるだろこれ。
書き起こし:
司会者:
"It's important to realize there are two types of training compute. One is the pre-training compute, that's from Grok-2 to Grok-3. Um, but from Grok-3 to Grok-4, we actually putting a lot of compute in reasoning, in RL."
別の話者:
"Yeah, and just like you said, this is literally the fastest moving field, and Grok-2 is like the high school student by today's standard. (...) By training Grok-2, that was the first time we scaled up like the pre-training. We realized that if you actually do the data ablation really carefully, and the infra, and also the algorithm, we can actually push the pre-training quite a lot by amount of 10x to make the model the best pre-trained based model. And that's why we built Colossus, the world's supercomputer with 100,000 H100s. And then with the best pre-trained model, and we realized if you can collect these verifiable outcome reward, you can actually train this model to start thinking from the first principle, start to reason, correct its own mistakes, and that's where the Grok-3 reasoning comes from. And today we ask the question, what happens if you take expansion of Colossus with all 200,000 GPUs, put all these into RL, 10x more compute than any of the models out there on reinforcement learning, unprecedented scale, what's gonna happen?"
説明:
事前学習とRL: Grok4の開発において、事前学習だけでなく、強化学習(RL)による推論能力の向上に重点を置いたことが述べられています。
Grok2との比較: Grok2はGrok4と比較すると、高校生レベルの能力であると表現されています。これはAIの進化の速さを強調しています。
Colossusスパコン: 大量のGPU(H100を10万台、その後20万台に拡張)を搭載したColossusというスーパーコンピュータを構築し、Grokの学習に使用したことが語られています。
自己修正能力: 強化学習によって、Grokが第一原理から考え、推論し、自らの間違いを修正する能力を獲得したことが説明されています。
RLスケールの拡大: Colossusの拡張により、既存のモデルよりも桁違いに大きな規模で強化学習を実施したことが述べられています。
compute in reasoning, in RL.ってとこだな
俺もネイティブじゃないから分からんわw
まあでも一番大事なのはここだと思うけどな
↓
自己修正能力: 強化学習によって、Grokが第一原理から考え、推論し、自らの間違いを修正する能力を獲得したことが説明されています。
シンギュラリティサロンの解説を待とう
>>986
DeepSeek R1のahaモーメントと同じでGrok4が特別という訳じゃない
なんか人間の理解って間違えないようにした結果正解にたどり着くって感じだけど
AIの理解って最初から正解にたどり着いているから間違えた時わけわかんなくなるって感じな気がするんだよな
個人的な感覚だけど
Haider.さんのX
>イーロン・マスクは
「時々不安になることがあります。私たちは、人間よりもはるかに優れた知性を生み出しているからです。
これは人類にとって良いことでしょうか、悪いことでしょうか?私は良いことだと思います。
もし良いことでなかったとしても、少なくとも私は生きている間にそれが起こるのを見たいです。」
と語った。
>>988
DeepSeekと大きく違うのは最先端の設備をふんだんに使えるところだな
『ポチョムキン理解』の現象は、生成AIにおける記号接地問題が未解決であることが原因ぽいよね
だとすると、これは根が深いぞ
アナログ時計もまともに読めない時点で現状のLLMに本質的な知性なんて欠片も持ち合わせてないのは自明
逆にアナログ時計が読めたら知性があるのかよw
小学生でもアナログ時計は読み方を習わないと読めないし、そんなことウジウジ言ってても仕方ないだろ
あくまでもリーク情報なので真偽は自分で判断してください
さあ本当か嘘かGPT5のリークしたベンチマーク。
まああくまで指標ですが、楽しみさは本心なので、こうであってくれたら嬉しいですね。
Grok4は超えていこう!
https://x.com/yugen_matuni/status/1944377981163503930
中国では工場労働者にAIメガネを装着させて動作の学習データを集め、それらを元に労働者をロボットに置き換えようとしている...。物凄い光景であるし、労働者はどんな気持ちなのだろうか。
https://x.com/sutoroveli/status/1943988220603379765
試しにGeminiにアナログ時計の絵を書かせて、「その時計は何時何分を指してるか?」と聞いてみたら、
しっかり間違えてたw
アナログ時計も指五本の画像を答えさせるやつも
トレーニング次第でどうにでもなるだろうけど
根本原因を除いてない感じがするな
2029年
スマートフォン版
掲示板管理者へ連絡
無料レンタル掲示板