レス数が1スレッドの最大レス数(1000件)を超えています。残念ながら投稿することができません。
技術的特異点/シンギュラリティ【総合】避難所 30
-
2045年頃に人類は技術的特異点(Technological Singularity)を迎えると予測されている。
未来技術によって、どのような世界が構築されるのか?人類はどうなるのか?
などを様々な視点から多角的に考察し意見交換するスレッド
■技術的特異点:収穫加速の法則と半導体微細化の進歩曲線に基づいて予測された、
生物的制約から開放された知能[機械ベース or 拡張脳?]が生み出すとされる
具体的予測の困難な時代が到来する起点
■収穫加速の法則:一つの発見が新たな技術を生み出し、その技術が他の発明を生み出すという連鎖的な反応が、科学技術全体を進歩させるという仮説
★関連書籍・リンク・テンプレ集(必修)
https://singularity-2ch.memo.wiki/
★特異点アンケート
https://forms.gle/c6ZLjnheCEZftYgg9
※前スレ
技術的特異点/シンギュラリティ【総合】避難所27
https://jbbs.shitaraba.net/bbs/read.cgi/study/13463/1728796170/
技術的特異点/シンギュラリティ【総合】避難所 28
https://jbbs.shitaraba.net/bbs/read.cgi/study/13463/1731033677/
技術的特異点/シンギュラリティ【総合】避難所 29
https://jbbs.shitaraba.net/bbs/read.cgi/study/13463/1733790731/
※不老技術の動向と医学関連はこちら
不老不死(不老長寿)を目指すスレ 避難所
https://jbbs.shitaraba.net/bbs/read.cgi/study/13463/1669450079/
次スレは>>950が立てること 立てられない場合は早急に他者に依頼するか951以後の者が早急に立てること
誰も次スレを立てずに議論に没頭して落としたり次スレにフライングレスしないこと
未来技術板のURLは書かないし、あちらから誘導もしないこと
-
次スレ
技術的特異点/シンギュラリティ【総合】避難所 31
https://jbbs.shitaraba.net/bbs/read.cgi/study/13463/1737879771/
-
特に数学は元の問題に答えを当てはめれば解が合ってるか合ってないか一発で検証できるし思考過程辿ればどこで間違ったかすぐわかるし、プログラミングも実際に実行したらすぐ分かるからなぁ(インタープリターが間違いを教えてくれる)
-
じゃあまだまだホワイトカラーのほとんどは安泰ってことか
-
AI新興のAnthropic、評価額9.3兆円に到達も 3,100億円の追加調達を交渉 | Musicman
https://www.musicman.co.jp/business/653859
いつまで新興企業を気取っている?本当に新興か?
-
>>953
でもRAGとか自前の会社データでプリトレーニングしたAIを使う場合はその分野の知識を滅茶滅茶持つことになるのでその限りではないよ。結局ちゃんとトレーニングに使えるデータが揃っているか、とかちゃんとAIにお金を正しく投資できるところが勝つ。
-
DeepSeekは投資の会社なので自社データをプリトレーニングに使っているのでo1と比べると投資の知識が凄い賢いらしい。
-
グーグルの新技術「タイタン」はAIに人間並みの記憶を与える
https://news.yahoo.co.jp/articles/1c55b21ab38b4a78a91a2dde9283fb9efcb9b8a9
グーグルは新たに「Titans(タイタン)」と呼ばれるアーキテクチャを公開した。これはトランスフォーマーを直接進化させたもので、人間のように考えるAIに一歩近づくとされている。
この分野の研究が進む中で、私たちは人間の認知にいっそう近づいた本格的な知能システムの誕生という、いわば新たなAIパラダイムの序章を目撃するのかもしれない。タイタンや同様のアーキテクチャが洗練され、AIやそれ以外の幅広い領域に応用される今後数年は、多くの革新的な展開が期待される。
-
>>950
メインのLLMの回答に対し、批判的に検証するサブAIとか必要なんだろうな
今のAIは思いついたことを取り敢えず口に出してみた、みたいな感じの動作をしている
それに対して答え合わせをするのは、今のところ人間側の担当
-
自動推論でチェックすれば良いんだよ
推論を強くしていくのは正しい道だよ
数学的に正しい自動推論チェックにより、LLM のハルシネーションによる事実ミスを防ぐ
https://aws.amazon.com/jp/blogs/news/prevent-factual-errors-from-llm-hallucinations-with-mathematically-sound-automated-reasoning-checks-preview/
-
AI開発の歴史において、従来の「推論」に基づくアプローチは、限界が明らかになって(第1次AIブーム)
大量のデータを活用した機械学習へとシフトしたんだよね。(第3次AIブーム)
この流れの中で、生成AIが誕生したわけだけど、生成AIが出力した内容を、再び「推論」によって修正
するという試みは、実現可能性に疑問があるなあ
第1次AIブームが頓挫した原因は解決したんだっけ?
-
LLMの知識カットオフ以降の知らない言葉を抽出するためだけのボットだがなんか可愛くなってきた
https://poe.com/s/6A6IqaYqm1PXslmFoxsl
-
>>960
その限界を突破するための莫大な投資じゃないのか?
-
>実現可能性に疑問があるなあ
オープンAIその他がその方向で動いて100兆円近い投資やるのに、
どこの誰だか分からない奴が「疑問」って草
-
まっ、今年中には何らかの結論が出るだろ
メタ、設備投資に最大10兆円投資…ザッカーバーグ氏「25年はAIにとって非常に重要な年」
https://news.yahoo.co.jp/articles/ec52e395d95e2b938eddff455132a3748671a63e
米SNS大手メタ(旧フェイスブック)のマーク・ザッカーバーグ最高経営責任者(CEO)は24日、2025年の設備投資額が最大で650億ドル(約10・1兆円)に上るとの見通しを明らかにした。前年比で5割以上増やしてデータセンターなどのAI(人工知能)関連設備を増強し、AI開発を加速する。
ザッカーバーグ氏はフェイスブックに「25年はAIにとって非常に重要な年になる。(データセンターなどの)設備投資に600億〜650億ドルを投資する計画だ」と投稿した。
-
> 第1次AIブームが頓挫した原因は解決したんだっけ?
そもそも第一次ブームって1950年代だぞ
エニアックレベルのコンピュータが世界最先端の状態でなんのAI作れってんだよw
一次(1950年代)も二次(1980年代)もマシンパワーとアーキテクチャ足りなさすぎてどうしようもなかったのが実態
現代はマシンパワーもアーキテクチャもおそらく揃ったから世界トップの企業がこれだけ本気出して開発競ってるんだろうね
-
何か強力なエビデンスが無いとこんな巨大な投資額注ぎ込もうとは思わない
-
勝者総取りだろうから
-
>>965
まだ足りない気がする。
-
何かまだ足りてないのは実際そうだと思うよ
足りてればAGI完成してるはずだから
そのパーツを世界の誰よりも先に見つけようと、各組織が国家予算規模の投資と開発してるわけだな
おそらく重要パーツに「モデルのスケーリング」「思考の連鎖」「マルチモーダル」があったと思うけどこれはもう実施された
-
>>965
>>エニアックレベルのコンピュータが世界最先端の状態でなんのAI作れってんだよw
それはダートマス会議のミンスキーやシャノンに言ってくれw
当時はきっと本気で作れると思ってたんだから
まあ50年後に「2020年代のコンピューターレベルで、当時の奴らは何で人間並みのAIを作れると思ったんだよw」
と同じことを言われるかもだから、馬鹿にできないなあ
-
>>970
あんたみたいな煽り野郎はここに向いてないから消えてくれ
-
GeForce RTX 5090 で電源コネクターの溶融問題の解決を明言
https://gazlog.jp/entry/geforce-rtx5090-no-more-melting/
-
こちらのツイによればまず英語圏でDeepSeek-R1が大絶賛されてるのに対して中国圏ではピンと来てない人多すぎらしい(そうなのか)ぶっちゃけR1はGeminiとかLlamaよりも偉業だと言う。R1は「たった500万ドルのトレーニングでo1並みの性能!」ってとこだけ持ち上げられてるけど、安くトレーニングできたのは結果であって、何故それが可能になったかの方が重要。で、それを可能にしたのが純粋な結果報酬の強化学習を使ったから。それまでは推論モデルを学習するにはプロセス報酬モデルを使う事が必須だと思われていた。プロセス報酬モデルってのは推論の過程を評価して採点する手法。というのもファイナルアンサーの答えだけ評価しても途中の推論が間違ってたら意味無いから、色々工夫をこねくり回してMCTSとか使って手間とコストをかけて途中の推論プロセス評価をやってた。そんな中、DeepSeekは「そんなの関係ねえ!」つって我が道を行って純粋な結果報酬の強化学習でトレーニングした。つまりAIのファイナルアンサーだけを見て、推論過程はノールックで見ない。こういうやり方じゃ上手く行かないとてっきりみんな思い込んでたけど、実際やってみたらメッチャ性能上がりました。マジかよ。あと結果しか評価しなかったのに、トレーニング途中でAIが「アハ体験!」か言って自力で推論の間違いを修正とかしだしたのも、つまりプロセスを全然見てなかったのに自力で推論修正能力を獲得したのがすごいという話らしい。それでAI業界はみんな手のひらドリルしてDeepSeekの手法を一斉に真似し始めてる…という事らしい。この方がシンプルで手っ取り早いから、だから安くトレーニングできたってだけ。じゃあお次は大金かけて同じ事やったらもっとスケーリングするのでは?って話になるから、AIの伸びしろに期待が高まった →RT
https://fxtwitter.com/umiyuki_ai/status/1883511926686396714
-
Googleのタイタンて画期的だな また次の領域にいったな
-
オープンソースのr1でかなりのことができるようになるだろ
あとはマジでハード面でより安価で高性能なグラボ待ち状態
-
仮想通貨の流れを考えたら、
CPU→GPU→ASIC
なんだよな
AI特化型ASICが次来るんじゃないかな?
-
>>976
タイムリープでもしてきたのか?それ数年前の話だろ
-
ん?AIの推論や学習の特化型のASICってもう一般的になってるの?
-
CerebrasとかTPUとかFPGAとか一般的
-
マイニングではほとんどASICになってるんだよね
AIはまだまだGPU全盛だから遅かれASIC全盛時代が来るよ
-
大手AI開発組織が軒並みGPUクラスタしか使ってないのはなんか理由があるんだろうな
-
有料記事だが1ページ目は読めた
2025年はAI処理専用チップが続々登場、NVIDIAの1強体制は終焉へ | 日経クロステック(xTECH)
https://xtech.nikkei.com/atcl/nxt/column/18/03054/122500005/
-
DeepSeek R1は、AIにおけるスプートニクモーメントだ。
https://x.com/pmarca/status/1883640142591853011?s=46&t=VbylbVzx4pxQ2euQpu_0Zw
スプートニクモーメント(Sputnik Moment)とは、特定の国家や組織が他国や他者による技術的・科学的な驚異的進展に直面し、それが競争意識を刺激し、大規模な投資や研究開発を加速させる契機となる歴史的な出来事や状況を指します。
この言葉は、冷戦時代の1957年にソビエト連邦が世界初の人工衛星「スプートニク1号」の打ち上げに成功した出来事に由来しています。
-
長いから直接読んでくれ
DeepSeek考えてた以上にとんでもないなこれ
https://x.com/FABYMETAL4/status/1883659796014051693
-
日経平均は続落、半導体関連に売り 値上がり銘柄8割近く
https://jp.reuters.com/markets/japan/funds/FMC274TN5VOWRJM3J6Z6J3XUAI-2025-01-27/
「革新的な技術で投資がいらなくなるリスクが浮上し、半導体関連、データセンター株は投資の縮小リスクを考えなければならない可能性が出てきた」とした。「先週から話題になっていたが、計算資源がかかっていないと分かり、売りにつながった」という。
-
馬鹿だな、「計算資源が要らなくなる」んじゃなくて「より少ない計算資源でもっと大きなモデルをトレーニングができる」ことがDeepSeekによって判明したので長期的にみたらもっとAI関連のチップの重要性は相対的に上昇するのに。ますますスケーリング則が強くなる一方だよ。
-
中国DeepSeekのAIアプリ、米国で首位に 市場に警戒感
https://www.nikkei.com/article/DGXZQOUC273U90X20C25A1000000/
ディープシークは既存の大規模言語モデルの出力データを使って新しいモデルを開発する「蒸留」という手法を使ったという。詳細は不明だが、米有力ベンチャーキャピタル(VC)を率いるマーク・アンドリーセン氏はX(旧ツイッター)に「これまでに見た中で最も驚くべき画期的な技術の一つだ」と投稿した。
-
これってもちろんだけどソース公開は共産党がOK出したんだよな
-
ここまで騒動になるとは予想外だった
-
DeepSeek R1の発表をトランプの大統領就任式にぶつけてきたのをみると中国側も米中の AI競争をかなり意識している
-
俺OpenAIは大丈夫だってずっと言ってたけど、ちょっとこれやばいかも
アメリカぶっ潰れたら困るな
-
>>991
大丈夫だよ、OpenAIやメタとかはもっとデカいデータセンター持ってるんだから、DeepSeekの論文の効率化をすぐに取り入れてもっと効率的なモデルを出してくるよ
-
いまいち把握できてないんだがdeepseekがやったのは元になる高性能AIモデルありきの蒸留なんだろ?
結局GAFAMがでかいモデル公開してないと作れなかったやつだろうから、アメリカいらねにはならんのではないか
思考の連鎖システムまで再現したのはスゲーと思う
-
>>993
これ
https://x.com/snowmaker/status/1883628838070149244
-
>>993
あとこれも
https://x.com/umiyuki_ai/status/1883511926686396714
-
>>994
すまん>>973とか読んだらわかりやすく書いてあった
グーグルのアルファゼロみたいなやり方で成功したのか
それも見てくる
-
ジェフリー・ヒントン
中国のAI開発については、「米国よりも多くの資金を投入しており、10年以内に米国を追い越す可能性が高い」と指摘した。
-
>>993
DeepSeek-R1の論文読んだ?【勉強になるよ】
https://zenn.dev/asap/articles/34237ad87f8511
-
最高の流れだよ
これだけ低コストでやられたらもう出し惜しみは出来ない競争になる
-
どんどん加速するなコレ
この状況下で来月シンギュラリティ来ません新刊を出す新井紀子センセは最高の一発芸
|
|
掲示板管理者へ連絡
無料レンタル掲示板