したらばTOP ■掲示板に戻る■ 全部 1-100 最新50 | |
レス数が900を超えています。1000を超えると投稿できなくなるよ。

【ChatGPT】AIチャット総合 避難所【Gemini・Claude】

409名無しさん:2025/08/05(火) 14:30:59 ID:C/Mcd1OQ
>>408
HRMは再帰ループを回して深い計算を内部潜在空間で行う設計
推論時に数百数千ステップを回せるよう設計されている
「実行時計算量」で見ると軽いとは限らない

o3/Claudeは会話・コード生成など総合タスク向けで、アルゴリズム系ベンチ専用の追加学習を想定していない

→単純にパラメーター単体で比較するのは困難
「たった2700万パラメータ」「超小型」はミスリード

ARC-AGI-1 40.3%がo3-mini-high 34.5%を上回るなどの数値は事実
→しかし、o3/Claude側は事前学習済み汎用モデルを追加fine-tuneせずに評価
HRMは各タスクで明示的に追加学習している点が、一般LLMのゼロショット評価と大きく条件を変える

他にも、自然言語生成や知識質問には未対応といった制約が明示的に書かれていないなど疑問点多数


原論文を読んで冷静に評価したほうが良いように思う

この記事を読める内容に修正するなら、
タイトルは「27Mパラメータの階層再帰モデルHRM、ARC-AGI等の推論ベンチでo3-mini-highを上回る」
内容も
- HRMは自然言語対話モデルではなく、推論アルゴリズム学習用の研究プロトタイプ
- 比較は追加学習ありHRM vs 追加学習なしの汎用LLMという非対称条件
- HRMの実用性・汎化性能はまだ検証途上であり、総合的な性能優位を示したわけではない
この3点を追加すべき


新着レスの表示


名前: E-mail(省略可)

※書き込む際の注意事項はこちら

※画像アップローダーはこちら

(画像を表示できるのは「画像リンクのサムネイル表示」がオンの掲示板に限ります)

掲示板管理者へ連絡 無料レンタル掲示板