レス数が1スレッドの最大レス数(1000件)を超えています。残念ながら投稿することができません。
技術的特異点/シンギュラリティ【総合】避難所 31
-
2045年頃に人類は技術的特異点(Technological Singularity)を迎えると予測されている。
未来技術によって、どのような世界が構築されるのか?人類はどうなるのか?
などを様々な視点から多角的に考察し意見交換するスレッド
■技術的特異点:収穫加速の法則と半導体微細化の進歩曲線に基づいて予測された、
生物的制約から開放された知能[機械ベース or 拡張脳?]が生み出すとされる
具体的予測の困難な時代が到来する起点
■収穫加速の法則:一つの発見が新たな技術を生み出し、その技術が他の発明を生み出すという連鎖的な反応が、科学技術全体を進歩させるという仮説
★関連書籍・リンク・テンプレ集(必修)
https://singularity-2ch.memo.wiki/
★特異点アンケート
https://forms.gle/c6ZLjnheCEZftYgg9
※前スレ
技術的特異点/シンギュラリティ【総合】避難所 30
https://jbbs.shitaraba.net/bbs/read.cgi/study/13463/1736046780/
※不老技術の動向と医学関連はこちら
不老不死(不老長寿)を目指すスレ 避難所
https://jbbs.shitaraba.net/bbs/read.cgi/study/13463/1669450079/
次スレは>>950が立てること 立てられない場合は早急に他者に依頼するか951以後の者が早急に立てること
誰も次スレを立てずに議論に没頭して落としたり次スレにフライングレスしないこと
未来技術板のURLは書かないし、あちらから誘導もしないこと
-
DeepSeek R1のフルモデル(671B)は1.4TBのVRAMが必要なんだって
すごいわね。
-
米国の輸出規制、中国の技術革新促す側面も 伊藤恵子氏 千葉大学教授 https://www.nikkei.com/article/DGXZQOCD172DS0X11C24A2000000/
やっぱ輸出規制は悪手だったか
サム・アルトマンのXへのリプにもDeepSeekのほうが無料で最高って煽り多くて笑うわ
-
サム「見せてもらおうか、中華のAIの性能とやらを」
-
998 名無しさん (スプー 6a35-1dee) sage 2025/01/27(月) 21:43:32 ID:mePHi9eoSd
>>993
DeepSeek-R1の論文読んだ?【勉強になるよ】
https://zenn.dev/asap/articles/34237ad87f8511
-
オープンソースだけに展開が速い
話題の中華LLM「DeepSeek R1」の日本語追加学習モデル サイバーエージェントが無料公開
https://www.itmedia.co.jp/aiplus/articles/2501/27/news163.html
サイバーエージェントは1月27日、大規模言語モデル(LLM)「DeepSeek-R1」を使った新たなAIモデルを無料公開した。「DeepSeek-R1-Distill-Qwen-14B/32B」をベースに、日本語を追加学習させたLLM「DeepSeek-R1-Distill-Qwen-14B/32B-Japanese」をHugging Face上で公開。ライセンスは、MITライセンスで商用利用なども可能だ。
-
>>5
強化学習恐るべし
DeepSeek-R1-Zero
待て、待て。待ってくれ。これはハッとさせられる瞬間だ。
正しい和が - - - - になるかどうかを確認するために、ステップ・バイ・ステップで再評価してみよう。
これは恐ろしいことです。
モデルは途中まで推論を実施しながら、途中で自身の出力結果を見直し、さらにもう一度ステップバイステップで検討をするという、高度な問題解決能力を獲得しています。
(自分の考えを見直して、さらに良い戦略を発見する。これができる人間がどれくらいいるのだろうか)
何度も記載していますが、DeepSeek-R1-Zeroを学習する際に、問題の解き方を明示的にモデルに教えることや、思考部分を強化させるような報酬は与えていません。
ただ、数学の問題に正解することで得られる報酬を与えるだけで、モデルが自律的に高度な問題解決戦略を獲得しています。
-
まとめるのに時間がかかった
>>5
ざっと読んだら、R1-zeroは強化学習のみで、かつ報酬モデルも作らず、報酬の与え方として数学の問題を解いて回答が合っていたら報酬とするとしたら(数学は明確な回答があるので報酬モデルとして使える)、勝手に思考能力も身につけたと
それと、小型モデル(Qwen-32B-Base)にR1で蒸留したものと、強化学習したものとを比較したら、蒸留モデルのほうが性能が良かった
蒸留後のモデルに強化学習をすることは実験していない
書かれているのは、これぐらいか
-
でも、強化学習はOpenAI等もやってると思うけど、R1-Zeroのすごいところは強化学習の報酬モデルを作らずに、ただ数学の問題を解いて正解したら報酬とするとしたこと、という理解でいいのかな?
数学の問題を報酬モデルとする、という発想の勝利というか
それと、この数学の問題が文章問題だったら、文章能力も磨かれるのかな?
-
低コストで出来る方法で、金をジャブジャブ使えば凄い事になるよな
-
DeepSeek、DALL-E 3を凌駕する画像生成AI「Janus-Pro」を公開
https://xenospectrum.com/deepseek-unveils-janus-pro-an-image-generation-ai-that-outperforms-dall-e-3/
-
>>9
プロセス報酬モデルを使わずに、結果の正誤だけをチェックする強化学習で大規模にやったら凄い結果が出て、結果的にコンピュテーションをセーブできたって話だね
他にもDeepSeekチームが施したコンピュテーションをセーブするための工夫は幾つもあるけど、他に大きいのはCUDAスクリプトを書かずに更に一つ低レベルのPTXでオーバーヘッドを無くしたことかな?
-
「AIバブル崩壊論」も 米“DeepSeekショック”で株急落【モーサテ】
https://www.youtube.com/watch?v=xkCyHiad7PQ
-
半導体需要が低下するとは思えないんだがなあ
理由あるのかな
-
AIスタートアップDeepSeekの台頭が示すAppleの優位性と影響
https://tech-gadget.reinforz.co.jp/15626#google_vignette
まさかのAppleに追い風
-
日本のAI研究者の人たちはなんで早々にあきらめた?
Peter H. Diamandis, MDさんのX
>イノベーションはもはや大手テクノロジー企業の特権ではありません。
挑戦する勇気のある人なら誰でもイノベーションを起こすことができます。
DeepSeek は、何十億ドルも必要ではなく、創造性と集中力だけが必要であることを証明しました。
では、あなたのムーンショットは何ですか?
-
Peter H. Diamandis, MDさんのX
>これは大手テクノロジー企業にとって何を意味するのでしょうか? NVIDIA にとってはどうでしょうか? 恐ろしいことです。
90% の利益率で高額の GPU を販売するという同社のビジネス モデルは、時代遅れになってしまいました。
他の企業では、チームの報酬だけで DeepSeek のトレーニング予算を超えています (しかも、同社のモデルはそれほど優れているわけではありません)。
-
サム・アルトマンはdeepseekのr1は価格に見合って素晴らしいが、我々はさらに優れたモデル(次世代のモデルには本当に驚くでしょう)を提供していくし、いくつかのリリースを発表する予定と発言。またこれまで以上に計算資源は重要とも。最後にAGIとそれ以上のものを届けることを楽しみにしてるとも。
https://x.com/bioshok3/status/1884068546487198184
-
このスレッドもDeepSeekの秘密を簡単に理解するのにちょうどいい
https://x.com/wordgrammer/status/1883712727073607859
-
Pika 2.1 が登場。鮮明な 1080p 解像度、非常に鮮明なディテール、シームレスなモーション、リアルな人間のキャラクターなど。実際に見れば、その魅力がわかるはずです。 今すぐピカドットアートで試してみてください。
https://x.com/pika_labs/status/1883922956818211082
-
Deepseek D1の蒸留版でもo1と同等の性能なん?
-
>>18
>AGIとそれ以上のものを届けることを楽しみにしてる
もう完成が決まってるのか!?
-
DeepSeek R1 に続いて、Claude Sonnet 3.5 と GPT-4o を上回る性能を持つ、中国から新しい OpenAI o1 レベル モデルが登場しました。
Kimi 1.5 をご紹介します。これは、高度な思考連鎖推論とリアルタイム Web 検索を備えたマルチモーダル モデルです。
これは 100% 無料、チャットは無制限です。じっくり考えてみてください。
https://x.com/Saboo_Shubham_/status/1883599007760744503
-
初心者のためのジェネレーティブAI(生成AI)(マイクロソフト公式)
https://github.com/microsoft/generative-ai-for-beginners
-
>>21
651ビリオンのモデルが一番Capable(o1と同等)で、32ビリオンがo1-miniと同等くらい。あとはパラメーター数が少なくなるにつれてless capableになっていく。1.5ビリオンはスマホでも動くけど一番賢くないモデル(でも速い)
蒸留モデルはQwenとかLlamaのモデルにR1のリーズニングを模倣させたモデルなので651Bと残念ながら根本的に違う。
-
671Bだった
https://github.com/deepseek-ai/DeepSeek-R1
-
>>25
サンクス
-
完全版を動作させるにはNVIDIA A100 80GB x16個が必要(1.4TBのVRAMを用意するため)
https://apxml.com/posts/gpu-requirements-deepseek-r1
-
>>18
>AGIとそれ以上のものを届けることを楽しみにしてる
もう完成が決まってるのか!?
-
deepseekショックってのはソ連のスプートニクショックになぞらえてんのかな
あのレベルの世界の状況変える衝撃になるといいな
-
衝撃走る中華AIモデル、DeepSeekに続く新たな刺客「kimi k1.5」現る OpenAI o1に匹敵する性能実現
https://news.yahoo.co.jp/articles/bb97bdd7ef3b6dc3fc5cdc100027e91b281433b6
-
DeepSeek、利用者多すぎて使えませんってメッセージ出始めたわ
-
DDoS攻撃受けてるって言ってたけどな
-
cudaを使ってないってのはほんとなのか
信じられないんだが
-
2.0Proくるかな?
何らかのGeminiのアップデートが日本時間の明日の早朝くらいに来ると見られる
https://x.com/nemy_new/status/1884193658427342962
-
【DeepSeek】米テックを抜く?AI専門家「超すごい」開発コストの安さとド根性に驚愕…スターゲート計画は?東大で7千人受講希望の研究者が解説
https://youtu.be/M1OvmjV0nc8
石戸っていうライターがウザくて残念だが
-
モリタク死す、合唱
-
もとい、合掌
-
NVIDIA株急落で時価総額90兆円失うか・・・
AIバブルが終わるきっかけになるかなー
-
>>39
むしろDeepSeekのお陰でAIの性能の伸びしろ45倍が増えたんだよ
-
>>34
DeepSeek の登場により、最先端の LLM 開発に大規模な GPU クラスターは不要になるのでしょうか? • Mirae Asset Securities Koreaによる分析
https://x.com/Jukanlosreve/status/1883304958432624881
-
>>41
DeepSeekがアセンブラ言語レベルで最適化されてるってホントかよ
抽象化の権化みたいなLLMをアセンブラで最適化しよう、なんて人間がこの世にいるんだなぁ
-
671Bの巨大なDeepSeek-R1だが、1.58bit量子化でCPU推論も現実的になった!
1.58 ビットの deepseek-r1 ggufs のご紹介です! 🐋
DeepSeek-R1 は、完全に機能しながら 1.58 ビットで実行できるようになりました。671B パラメータ モデルを 720GBから 131GBに縮小しました。これは 80% のサイズ削減です。
すべてのレイヤーを単純に量子化すると、モデルが完全に壊れ、無限ループと意味不明な出力が発生します。当社の動的量子はこれを解決します。
1.58 ビットの量子は 160GBの VRAM (2x H100 80GB) に収まり、約 140 トークン/秒で高速推論が可能です。
DeepSeek-R1 のアーキテクチャを研究することで、特定のレイヤーを高ビット (4 ビットなど) に選択的に量子化し、ほとんどの MoE レイヤーを 1.5 ビットのままにしました。
https://x.com/UnslothAI/status/1883899061893546254
-
OpenAIの研究者がまた一人辞職。
AGIに向けた競争の中で、AI研究室は人類に対して「非常に危険な賭け」をしていると主張
-
人間社会ってどんどん複雑になっていってるね。
なんかもう転職前提の世の中になって久しいけど
優秀な人は引く手数多だけど、そうでない人ってなんとかありつくしかないし、自分から辞めなくても解雇とか倒産のリスクもある
-
定型業務や反復業務しかできない人は食っていけなくなるだろうね
-
その結果が少子化だけど政治家特に自民系は自らの政策の誤りを認めたくないんだろうな
いわゆる「謝ったら死ぬ病」という精神障害
ただのおっさんが謝ったら死ぬ病なら単なる痛い人で済むけど、国の中枢がこれなら国が傾くわな
-
>>44
むしろワクワクするな
OpenAI内部で今何作ってんだよ
-
人類に破滅をもたらしかねない程、強力だって事だよね。
ワールドコインだってAIによる技術的失業を見越しての事だから、やっぱり相当な確信があるんだろうし、いよいよそれが実現しそうな段階になって来てるんだろうな。
-
まだ1月も終わってないのにこのスピード感
2025年にAGIが現実味を帯びてきたな
-
>>43
70Bか32Bの1.58bit or 2.51bit量子化モデルあったらよかったのにな〜。
-
焦るのは意思を持ってからだろ 大袈裟すぎ
-
持ったら即止まらんよ
-
映画とかですぐに死ぬキャラが言ってそう
-
DeepSeek R1の出現でOpenAIの未来はどうなる?
https://poe.com/s/ZJxfSLc6z8MHE6ouYSyZ
-
https://news.yahoo.co.jp/articles/6c43c925bf43a1e690bc2891e8d32308da7ca2e6
何が本当かはまだ解らないけど。
-
言うてopenAIもグレーなデータ食べさせてるだろうしな
-
アンスロピックCEO「AIの次のマイルストーンが急速に近づいている」(海外)
https://news.yahoo.co.jp/articles/d67d594370fb7609bd23abcdecd3625205f03b7c
-
まだ慌てるような段階ではない
-
OpenAIから不正入手されたものならOpenAIフルオープンされたんだから慌てんといかんだろ
-
【ゆる仮説】DeepSeek解説。NVIDIAのGPUはオワコンなのか【雑に語る】
https://youtu.be/CHCx9AUpE4U
安野さんの解説が一番わかりやすいな
-
まあでもGPTを低コストでローカルPC環境で動かせるみたいなモンでしょ
技術的に新しいことじゃないし革新的なことではないけど
コスパはすごいってとこなんだろうね
-
ハードウェアはまだしもソフトウェアは中華製はまだ怖くて使えんなあ
-
日本の政府もムーンショット計画は真面目に進めるつもりらしい
https://m.youtube.com/watch?v=gs16MJfNHLs&t=1935s
-
本日、MicrosoftからFP4量子化を用いた大規模言語モデルのトレーニング手法に関する論文が発表された。Nvidia はBlackwellで「FP4対応」をうたっているが、今回のMicrosoftの研究はその可能性を具体的に裏付ける結果となっている。論文は、4ビット浮動小数点(FP4)という極めて低い精度での学習に向けて、勾配推定の改良(DGE)やアウトライヤー制御(OCC)、さらに量子化粒度を細かくする実装などを組み合わせることで、BF16とほぼ同等の精度を確保できることを示している。
OpenAIやAnthropic、Meta、Googleといった米国巨大AI企業は、このチャンスを見逃すはずがなく、いずれBlackwellのフルスペックを手に入れた大規模環境で、FP4を使った“超高速学習”を実施するシナリオが十分考えられる。
https://x.com/FABYMETAL4/status/1884496028231163986
-
>>63
Ollamaでローカル実行させればいいじゃん。オープンソース&MITライセンスの強みだよ。14Bくらいならメモリ32GBあれば動かせる
-
ムーンショット計画ってASIが出来るかどうかにだいぶ左右されるよね
-
本当に数日感覚でAIの常識が塗り替えられててついていけない
-
アンスロピックCEO「AIの次のマイルストーンが急速に近づいている」
https://www.businessinsider.jp/article/2501anthropic-ceo-calls-agi-marketing-term/
アントロピック(Anthropic)のダリオ・アモデイ(Dario Amodei)CEOは、新たな技術的境界に急速に近づいていると確信している。すなわち、ほとんどのことにおいて人間より「優れた」AIシステムが生まれるということだ。
-
中島聡が中国製AI「DeepSeek-R1」に受けた衝撃と時代の大変化。私たちは「知的労働のコストがゼロになる」瞬間を目撃している
https://www.mag2.com/p/news/634974
中国のAIスタートアップ企業「DeepSeek」が20日、米OpenAIの最新モデルo1に匹敵する「考える力」を持った人工知能「DeepSeek-R1」を公開した。これを実際に触り、「素晴らしいとしか言いようがありません」と絶賛するのは著名エンジニアの中島聡氏だ。同氏は「『AIの進歩により、知的労働のコストが限りなくゼロに近づく』現象がまさに今、私たちの目の前で起こっている」と指摘。
-
汎用AIの安全性にフォーカスを当てた初の国際的な科学レポートが公表された。汎用AIは今後数ヶ月から数年で非常に急速に進歩する可能性があり、利点も大きいがリスクも大きく不確実性が高い。汎用AIが生活に及ぼす影響は深刻な可能性が高いため、早急に国際合意に向けて取り組む必要があると主張されている。
汎用AIの能力やリスクやその対策について網羅的かつ客観的な立場で執筆されており、リスクの中には著作権、プライバシー、失業、環境破壊、悪用、制御不可能なAIからオープンウェイトモデルのリスク、世界的なオンライン監視のリスクにも少し触れられている。
汎用AIにフォーカスを当てており、しかも極端なリスクからよく知られているリスクまで網羅し、不確実性が高いから国際的なガバナンスの必要性を訴えているという点は初めての試みだと思われる。
https://x.com/bioshok3/status/1884626038287917346
-
Groks スタンドアロン アプリに「推論」機能が追加されました。Grok3 は別の推論モデルになり、さらに興味深いものになりそうです。xAI の活躍に期待しましょう!
https://x.com/kimmonismus/status/1884626958442430917
-
>>67
内容見ると人間の研究速度と精度じゃとても間に合わんような内容ばかりだからな。100歳まで健康の問題なく生きられるとか台風の制御とか
ああいう課題をクリアするにはそれ自体は放置して今はAGI開発に全振りするのが正解のはず
-
deepseekがopenAIからパクってるなら、アッシェンブレナーはそれ見たことかって思ってるだろうな
-
🔥 テスラは今年、オプティマス ボットを 10,000 台製造する予定です。
https://x.com/TeslaNewswire/status/1884738054528651717
-
まあペッパー君も二万台は生産したし
-
オプティマスはBellaBotよりは使えるといいな
ネコ型配膳ロボット BellaBot - エルモ
https://www.elmo.co.jp/product/robot/bellabot/
-
>>76
人型ロボット時代が来る! テスラのオプティマスはロボット開発競争に勝ち残れるか?
https://evcafe.jp/article-20250129-essay-jinbei-20-tesla-optimus/
テスラは今年、オプティマスを自社工場に数千台テスト導入する予定。この導入が成功すれば、来年には生産規模を10倍に拡大して最大5万台を目指すと。さらに、3年以内には50万台の生産が可能になるというんですよね。
さらに将来、世界には最大で300億台もの人型ロボットが存在して、人ひとりに対して少なくとも3台、多ければ4台、5台といった割合になるっていうんですよね。
-
ロボティクスの躍進は目覚ましいが、正直今のレベルのオプティマスに
そこまで需要あるんだろうか…。今のところ家にあっても3日で邪魔になりそうな気がする。
中国の車輪付きロボとかのほうが実用性高そう。
-
>>76
その2万台のペッパーくんって今どこ行ったの?
街ですっかり見なくなったけど
-
>>78
ロボット作るための鉄とか足りなくならないかな?
アフリカの貧困層にまでロボットが行き届くとは思えないんだけど。
スマホが行き届いたのはびっくりだったけど
あれは材料少ないしな
-
>>80
ほぼ全部返品された
まあはっきり言ってポンコツだったからなぁ
-
>>81
車の製造過程の1/20しか使わない
-
>>81
テスラ(自動車)1800kg
トヨタセダン 1200kg
オプティマス 57kg
世界の自動車 17億台
重量ベースで行くと
オプティマスは340億台は行けるよ
-
>>84
ロボットが使えると社会に受け入れられたとしても自動車の需要が消えるわけじゃないでしょ?
まさかロボットが人をおんぶして走るわけにもいかないんだし。
-
そんなの最初で計算するとこだろうからね
-
今のレベルのオプティマスほか人型ロボに現実的な用途はあまりないと思うが、ロボとして売れるレベルになってるってのが重要なんだろうな
びみょーな初期型出しておけばv2v3でこんなに性能アップしました!ってアピールしやすいし
-
ロボとして売れるレベル
21世紀の奴隷商かな?
-
何億台もいたら故障かなんかで暴走するヤツも出てくるだろうな
-
>>85
自動車を作れるならその1/20しか材料も工程もかからないんだからロボットも余裕で作れるってこと
-
ロボットがロボットを作るようになるしな
-
>>91
材料や格納庫、電力などが足りなくなって停止命令がどこかで降りるはず
-
>>92
自動車が作れてるなら大丈夫
-
何回も何回も言ってるが、世界で自動車を作れる余裕があるならロボットなど1/20なんだから遥かに余裕で作れるんだよ
-
>>92
引っ掻き回して反応を楽しむ奴はこの掲示板には不向きだよ
-
中の人
https://x.com/dylhunn/status/1884884424967565402?utm_source=yjrealtime&utm_medium=search
o3-mini は本当に素晴らしいです。並外れた知性と驚異的なスピード。
GPT-4 以来、これほど興奮したモデルはありません。
-
まあ作れる資源があっても、今ルンバが10億台稼働してるわけでもないし、問題は
価格に合う性能があるかどうかやね
-
シンギュラリティサロンではdeepseekを以前から取り上げており、松田先生の先見性がまたもや発揮された
話題になってから色々な動画で取り上げられているが、松田先生の解説が一番深く掘り下げている
-
o3-miniがそんなに素晴らしいなら契約考えてやるよ(契約するとは言っていない)
-
>>97
そこはイーロン・マスクはしたたかだよ
SpaceXのスターリンクでもそうだが、まずは自社での商用需要を増やして数を増やして行くだろうね
|
|
掲示板管理者へ連絡
無料レンタル掲示板