レス数が1スレッドの最大レス数(1000件)を超えています。残念ながら投稿することができません。
技術的特異点/シンギュラリティ【総合】避難所16
-
オープンソースの生成AIが「GPT-4」に一歩及ばない理由 - ZDNET Japan
https://japan.zdnet.com/article/35214897/
このテストでオープンソースモデルがGPT-4に劣っていた理由はいくつも考えられるが、この論文の著者は、AnthropicとOpenAIがモデルのトレーニングに独自の医療に関するデータを組み込んでいることが大きな理由ではないかと考えている。
論文では、「GPT-4とClaude 2は、公開データだけでなく、サードパーティのデータも使ってトレーニングされていた」と述べている。
「医療分野の大規模言語モデルをトレーニングするために必要な高品質なデータは、多くの場合、教科書や出版された記事、キュレーションされたデータセットなどの、吟味され、ピアレビューを受けた非公開の資料の中にある」とWu氏らは指摘している。「それぞれの大規模言語モデルが持つ計算能力の重要性を否定するわけではないが、現在はパブリックドメインにはなっていない、医療に関するトレーニング用のデータ資料にアクセスできるかどうかは、今後も特定の大規模言語モデルが将来改善されるかどうかを左右する重要な要因であり続ける可能性が高い」
GPT-4のスコアが人間の合格点より2点低いことを考えれば、オープンソースかどうかに関わらず、すべての言語モデルに大きな改善の余地があることは明らかだ。
掲示板管理者へ連絡
無料レンタル掲示板