レス数が1スレッドの最大レス数(1000件)を超えています。残念ながら投稿することができません。
技術的特異点/シンギュラリティ【総合】避難所16
-
>>921の記事を読んだけどLLMって死ぬほど学習データに性能左右されるんだよな。だから如何に高品質なデータを大量に用意するのが重要なのかって話に尽きる。これからのLLMは巨大化することはないにしても(コンピューターリソースの限界や電力消費量の限界で)、少なめのパラメータ数でも高品質なデータを沢山学習させたほうが、多いパラメータのLLMが「そこそこの学習データで学習させた場合」よりも同等かそれ以上の性能が出ることもあるから本当に高品質なデータが大事。
今は他のLLMが合成データを作ってLLMにループ学習させる研究も流行ってるから高品質の学習データの物量に頼ることは無くなっていくと思う。時期に解決していくだろうけど。
掲示板管理者へ連絡
無料レンタル掲示板