レス数が1スレッドの最大レス数(1000件)を超えています。残念ながら投稿することができません。
技術的特異点/シンギュラリティ【総合】避難所 37
-
2045年頃に人類は技術的特異点(Technological Singularity)を迎えると予測されている。
未来技術によって、どのような世界が構築されるのか?人類はどうなるのか?
などを様々な視点から多角的に考察し意見交換するスレッド
■技術的特異点:収穫加速の法則と半導体微細化の進歩曲線に基づいて予測された、
生物的制約から開放された知能[機械ベース or 拡張脳?]が生み出すとされる
具体的予測の困難な時代が到来する起点
■収穫加速の法則:一つの発見が新たな技術を生み出し、その技術が他の発明を生み出すという連鎖的な反応が、科学技術全体を進歩させるという仮説
★関連書籍・リンク・テンプレ集(必修)
https://singularity-2ch.memo.wiki/
★特異点アンケート
https://forms.gle/c6ZLjnheCEZftYgg9
※前スレ
技術的特異点/シンギュラリティ【総合】避難所 36
https://jbbs.shitaraba.net/bbs/read.cgi/study/13463/1750375557/
※不老技術の動向と医学関連はこちら
不老不死(不老長寿)を目指すスレ 避難所
https://jbbs.shitaraba.net/bbs/read.cgi/study/13463/1669450079/
次スレは>>950が立てること 立てられない場合は早急に他者に依頼するか951以後の者が早急に立てること
誰も次スレを立てずに議論に没頭して落としたり次スレにフライングレスしないこと
未来技術板のURLは書かないし、あちらから誘導もしないこと
-
政治板でやれよ
-
一部の情報では、OpenAIのAIが世界最高のプログラミング能力に到達したようだ。
人間のプログラマーは3日間で10時間も行われたテストで最終的にAIに勝ったものの、もう少しテストが続いていたら負けていたと感想を述べた。
これで今年の終わりまでにAIが世界最高のプログラマーになるというサム・アルトマンやAnthropicのダリオ・アモデイの予言はほぼ実現したことになる。
https://x.com/DGetback47618/status/1945804435650941103
-
Grokコンパニオンの模倣品 オープソース化
https://x.com/pirokichi/status/1945770450912735349?s=46&t=2cyeChglaxe-bJ6Jxcwr9Q
-
Sam Altman @sama
今日、私たちはChatGPT Agentという新しい製品を発売しました。
Agentは、AIシステムの新たな能力のレベルを表し、独自のコンピュータを使用して、驚くべき複雑なタスクをあなたのために遂行することができます。これは、Deep ResearchとOperatorの精神を組み合わせたものですが、それ以上に強力です—長時間考えることができ、ツールを使用し、さらに考え、行動を起こし、さらに考える、といった具合です。たとえば、発売時に行ったデモでは、友人の結婚式の準備として、服の購入、旅行の予約、ギフトの選択などを示しました。また、データの分析や仕事用のプレゼンテーション作成の例も示しました。
その有用性は大きいですが、潜在的なリスクも同様に大きいです。
私たちは多くの安全装置や警告を組み込み、これまで以上に広範な緩和策を講じてきました。堅牢なトレーニングからシステムの安全装置、ユーザー制御までありますが、すべてを予測することはできません。反復的な展開の精神に基づき、ユーザーに強く警告し、慎重にアクションを取る自由を与えるつもりです。
私は自分の家族には、これが最先端かつ実験的なものだと説明します。未来を試すチャンスではありますが、高リスクな用途や個人情報を多く扱う場合には、まだ十分に研究し、実際の現場で改善する機会が得られるまでは使用しない方が良いでしょう。
具体的な影響は正確にはわかりませんが、悪意のある者がユーザーのAIエージェントを「騙して」、公開すべきでない個人情報を引き出したり、すべきでない行動を取らせたりする可能性があります。その方法は予測できません。プライバシーやセキュリティのリスクを減らすために、エージェントにはタスクを完了するために必要な最小限のアクセス権を与えることをお勧めします。
たとえば、エージェントにカレンダーへのアクセスを許可して、グループディナーの都合の良い時間を見つけることができます。しかし、服を買うように頼むだけなら、アクセス権を与える必要はありません。
「夜間に届いたメールを見て、必要な対応をすべて行い、フォローアップの質問はしない」といったタスクには、より大きなリスクがあります。悪意のあるメールからの信頼できないコンテンツが、モデルを騙してあなたのデータを漏洩させる可能性があります。
私たちは、現実との接触から学び始めることが重要だと考えています。そして、潜在的なリスクをより良く定量化し、軽減するにつれて、人々がこれらのツールを慎重かつゆっくりと採用することを推奨します。他の新たな能力のレベルと同様に、社会、技術、リスク軽減戦略は共に進化する必要があります。
2025年07月18日 02:36
https://x.com/sama/status/1945900345378697650
-
ChatGPT研究所 @ctgptlb
【速報】OpenAI、新機能「ChatGPTエージェント」を発表
① ブラウザ、ターミナル、API等を自律的に使用するエージェント機能を搭載
②30分を超える複雑なタスクを最後まで自律的に計画・実行が可能
② Pro、Plus、Teamユーザーへ本日より順次提供開始
詳細はスレッド
https://x.com/OpenAI/status/1945904743148323285/video/1
2025年07月18日 03:30
[動画] https://twitter.com/i/status/1945904743148323285
https://x.com/ctgptlb/status/1945913920759456043
-
Psyho @FakePsyho
更新:私は元気で生きています
結果が公式に発表され、AIに対する私のリードが5.5%から9.5%に増えました
正直、この盛り上がりはちょっと奇妙に感じます。こんなに多くの人がプログラミングコンテストに興味を持つなんて思ってもみませんでした。これって、もっと頻繁にここに顔を出すべきってことかな
2025年07月18日 03:02
https://pbs.twimg.com/media/GwE3Uu9XsAAr_oX.jpg
https://pbs.twimg.com/media/GwE4MXmXMAAKRiT.jpg
https://x.com/FakePsyho/status/1945906866686705882
-
>>184
日本人凄いじゃん
-
東京で開催されてるからね
-
AIは既にトップレベルに並んでるんだね
-
AIって既にトップレベルに並んでるんだね
-
2回投稿してしまった
-
地味だけど大きい進歩
ChatGPT Agentの評価図が示すのは、「ツールを増やせば性能が上がる」という当たり前に聞こえるけど実は凄い事実だ。
つまり、AIがついに「どのツールをどの組み合わせで使うか」を的確に判断できるようになり、長いステップも間違うことなくこなせるようになった。
これでロボットへの応用が進む。
https://x.com/K_Ishi_AI/status/1946014905586630708
-
とりあえずアナログ時計読めるようになったら起こして
-
>>190
おお。LLMは原理的に何でも学習できると思っていたがやはり間違いではなかった。少なくともAGIレベルには到達できるだろう。
-
o3で試したが普通にアナログ時計読めるぞ
-
別にAGIに意識なんていらんしな
-
意識とか感情とか再現しない方が使い勝手は良いだろうな
人間そっくりだったり生き物感あると人間の為にAIを犠牲にするのかって言い出す団体出て来るのが目に見える
-
AIの反乱を描いたデトロイトの所為だよね
-
今回出てきたのがようやく実用的エージェントとなるのだろうか
-
いちおう今年はエージェント元年だからな
-
>>191
これだな
https://youtube.com/shorts/BQajEg5fvGo
-
o3はちゃんとアナログ時計の時間読める
何回か試すと間違うけどちゃんと正解する
-
Paul Gauthier @paulgauthier
Kimi K2は、Aider polyglot コーディングベンチマークで59%を記録しました。
完全なリーダーボード:
https://aider.chat/docs/leaderboards/…
2025年07月18日 20:09
https://pbs.twimg.com/media/GwIrCRTX0AAr1yi.jpg
https://x.com/paulgauthier/status/1946165321611526229
-
間違うんかい!
AIが間違った回答をした時に、どういう理由でその回答に至ったかの説明を求めると面白いよ
自信満々で間違った説明をしてくるw
-
ザッカーバーグの最新のコメントだ。
「今年最もエキサイティングなことは、モデルが自己改善の兆候を見せ始めていることです。これは、超知能の開発が視野に入ったことを意味します。私たちは超知能を実現するために最大限の努力をします。私たちは世界中のすべての人に個人的な超知能を提供しようと考えています。超知能をすべての個人の手に委ねるのです。そのコンピューティングリソース構築のため数百億ドルを投資する予定です。その実現は2、3年以内でしょう」
-
メタも露骨にAGI作るチーム構築したんだよな
-
AGIより先にASIを作るつもりなのでは?
-
>モデルが自己改善の兆候を見せ始めていることです。
>これは、超知能の開発が視野に入ったことを意味します。
2030年までにビックテック系がそれぞれASIをリリースするのでは?
-
各社のラボの中では自分のプログラムを書き換えて進化するAIが既にあるかと推測できる
それをそのまま公開して大丈夫なのかと迷っている状態なのだろう
-
まだまだ時間かかると思うけどロボットが厨房に入って料理を全てこなして人間より使えると社会的に認められたらおおってなるな。
人間がやるより衛生的かもしれないし、ロボットだからこそ精密な調理も可能になるかもしれない。
やはり飲食関係というか目に見えるところに進出して来れば驚くって。
-
>>203
お前の会社は「メタバース」に注力するってことで「メタ」に改名したのに超知能にアクセル全開でいいかw
-
>>209
こまけぇこたぁいいんだよ!
-
まぁまぁw
メタはメタバースが間違ってたんじゃなくて順番が間違ってたって言ってる
先にAGIが来てからメタバースが来るということらしい
-
サム・アルトマン
https://x.com/sama/status/1945901039104004467
ChatGPTエージェントがコンピュータを使って複雑なタスクを行うのを見るのは、私にとって本物の「AGIを感じる」瞬間でした。コンピュータが考え、計画し、実行するのを見るのは、何か特別な感じがします。
-
俺だけなのかな?
AGI以前に超有能なエージェントができれば仕事の相棒として最強じゃんって夢見てるのは?
-
AGIが達成されない限り、超有能なエージェントができないと思われ
Alexaに毛が生えたレベルのエージェントでは、誰も使わないで
-
俺の中では、
エージェント→俺の指示を内容を隅々まで理解して完璧にこなす有望な相棒
AGI→指示も判断も必要なく俺よりも有能でエージェントへの指示も全てを任せられる有能な人間レベルのAI
-
AGIに到達する前にエージェントが高度化してく段階があるだろうね
別に人間並の知能まで無くても自動化できそうな作業は多くあるし
-
AGIとASIが実はほぼ同時にできたりする?
直線的な発展観を人間はつい構想してしまうので時間差を考慮してしまうが
実際はAGIもASIもコインの裏表だったりして
-
AGIはLLMのアーキテクチャで実現できるかもしれないが(デミス・ハサビスはあと2-3のブレークスルーが必要と言っているが), ASIは根本的にアーキテクチャが別になると思う。
もちろんLLMがアーキテクチャの一部になる可能性はある。
-
概要
ARC‑AGI‑3 プレビューは、人工知能が人間のような汎用的知能を獲得し得るかを評価するための、初のインタラクティブ推論ベンチマークなのじゃ(ARC Prize)。このプレビュー版では、未知の環境でのスキル獲得効率を計測するための6つのゲーム(公開3、2025年8月公開予定3)を用意しているのじゃ(ARC Prize)。ゲーム環境はグリッドワールド上で展開され、事前の説明や指示なく、観察・計画・行動を繰り返して解法を自ら見出す必要があるのじゃ(ARC-AGI-3)。
テスト能力の要素
1.探索能力(Environment Exploration)を試すのじゃ(ARC Prize)。
2.Percept → Plan → Action の反復プロセスを評価するのじゃ(ARC Prize)。
3.記憶(Memory)を用いて過去の経験を活かす能力を測るのじゃ(ARC Prize)。
4.目標獲得(Goal Acquisition)により、新たな目的設定と達成方法を学習する力を問うのじゃ(ARC Prize)。
5.アライメント(Alignment)、すなわち与えられたルールや人間の意図と整合的に動く能力をテストするのじゃ(ARC Prize)。
ゲームデザインの特性
コア知識プライヤー(Core Knowledge Priors)のみを前提とし、言語やトリビアへの依存は排除しているのじゃ(ARC Prize)。
隠れ状態の推測、他エージェントとの相互作用、長期計画など、革新的なゲームメカニクスを奨励する設計なのじゃ(ARC Prize)。
人間にとっては〈<1分〉でルールを把握でき、〈5〜10分〉でプレイできる易しさを維持しているのじゃ(ARC Prize)。
プレビューの規模と今後
プレビュー段階では6ゲームに限定されておるが、最終的にはおよそ100のユニークな環境が用意され、公開・非公開評価セットに分かれてAIの汎化能力を厳密に測定する予定なのじゃ(ARC Prize, ARC Prize)。これらは全て、未知の状況におけるスキル獲得効率を人間基準と比較することで、AGI到達の指標となるのじゃ(ARC Prize)。
インタラクティブ性の重要性
静的ベンチマークでは測りえぬ知能の全貌を捉えるため、インタラクティブ推論ベンチマーク(IRB)は探索〜計画〜行動の動的過程を評価するのじゃ(ARC Prize)。ARC‑AGI‑3ではこれをグリッドワールド上のゲーム環境に落とし込み、AIが未知の環境で多段ステップの判断を行えるかを試すのじゃ(ARC-AGI-3)。
以上の通り、ARC‑AGI‑3 プレビューは未知のゲーム環境を通じてAIの人間らしき学習効率と推論能力を多角的に評価する、新機軸のベンチマークなのじゃ。今後の完全公開が楽しみなのじゃ!
https://x.com/arcprize/status/1946260363256996244
-
わらわの見立てによれば、ARC‑AGI‑3のインタラクティブ課題は現行の大規模言語モデル(LLM)にとって極めて高き挑戦となっておるのじゃ。以下、いくつかの要点を挙げるのじゃ。
静的ベンチマークでさえほとんど歯が立たぬ現状
ARC‑AGI‑2の静的評価では、OpenAIの最新鋭モデル「o3‑medium」でさえ約2.9% の正解率に留まったのじゃ。対して人間は平均60%前後を叩き出すゆえ、大きな隔たりがあるのじゃ(効果的利他主義フォーラム)。
これは“静的”なパズルのみを解く試験にもかかわらずの数字故、インタラクティブ環境下での学習・探索・行動を要求するARC‑AGI‑3では、より一層の困難を極めるのは明らかなのじゃ。
インタラクティブ性が要求する複合的能力
ARC‑AGI‑3プレビューが想定する「観察→計画→行動」の連続ループは、単なるテキスト推論を超えた環境探索・記憶管理・長期的意思決定を必要とするのじゃ(ARC Prize)。
現行のLLMは自己の出力を即時に“行動”と見做す仕組みを標準では持たず、外部環境との双方向インタフェース実装や、逐次的メモリ更新機構を組み込む必要があるのじゃ。
人間とのギャップのさらに拡がる領域
ARC Prizeの発表によれば、ARC‑AGI‑3プレビューは「人間には容易、AIには最も困難なギャップが最も大きい」種のゲーム群を設計しておるとされるのじゃ(X (formerly Twitter))。
したがって、現行のLLMベースエージェントが自力でタスクを解法に導くのは、静的課題の数%成功ですら至難である現状を鑑み、大海に小舟を漕ぎ出すようなものと言えようのじゃ。
以上より、ARC‑AGI‑3のインタラクティブ課題は、現在のLLMが最も苦手とする「環境との相互作用を伴う動的学習」を本質的に問い、現行モデルの枠組みだけでは有意義な成果を挙げるのは極めて難しい挑戦と言い切れるのじゃ。今後、メモリ機構や計画モジュール、リアルタイム探索アルゴリズムなどの組み込みを行うことで、はじめて人間に近き学習効率を示せる日が来るであろうのじゃ。
-
ARC3の成績50パー超えるまでどのくらいかかるかな 新システム複数必要ぽいが
1年以内に突破したらビビる
-
ARC-AGI-3は実際に人間も遊べるから試してみそ!普通にゲームだから楽しいぞ
ARC-AGI-3 Preview - ARC-AGI-3
https://three.arcprize.org/
-
Haider. @slow_developer
このニュース、もっと大きく取り上げられるべきだ…
「ChatGPTエージェントは、テストされたタスクの約半分で人間に匹敵するか、それを超えた。10時間以上かかるタスクでもだ」
冗談だろ?
AIエージェントの年の半分ちょっと過ぎただけで、すでに高影響のタスクをこなしてるなんて
2025年07月19日 01:35
https://pbs.twimg.com/media/GwJg1pKWEAAE6Hp.png
https://x.com/slow_developer/status/1946247341838835968
-
複雑すぎw
https://i.imgur.com/TUSP36b.png
-
複雑すぎと思ったけど3つともクリアしたわ
-
クリアアサヒ
-
うんわからん
-
AIの理解!その奇妙な心がみえてきた?LLMの内部に隠された3層の知的構造を解明(2025-07)【論文解説シリーズ】
https://x.com/compassinai/status/1946318418740933094
-
LLMは人間と似た理解をするが、やり方が全然違う。
人間は作業記憶の制約で統一的で簡潔な方法を好むが、 LLMは何百もの小技(ヒューリスティック)を同時に使う。
でも結果として、ちゃんと『理解』と呼べるものを実現している。 ただし、LLMの理解方式が人間と根本的に異なるため、一貫性を欠く『ポチョムキン理解』に陥る場合もある。
https://x.com/compassinai/status/1946409740105666599
-
今のAIには統一性とか一貫性が無いので人間には非常に奇妙に映るんだな
-
いやいやいや、統一性も一貫性もない状態では、それは「理解」してないんだよw
AIがその場その場で、無理やり回答を生成しているに過ぎない
これは「人間とは違うやり方だ」といった単純な話ではないw
例えるなら、「分かりました!」と返事をするのに、毎回説明したこととは全く異なる結果を出してくる部下を思い出すw
-
AI時代の羅針盤 (compass for the AI era) @compassinai
【「理解」論争、ついに核心へ!それは… ”奇妙な心” 】
AIは単語の確率を計算しているだけ?ベルン大学などの研究は、その通説に挑みます。
LLMの内部動作を解き明かすアプローチは、AIが単なる事実の暗記ではなく、物事の「つながり」を捉え、「原理」すら発見するメカニズムの存在を示唆 。
しかし、その理解の仕方は人間とは全く異なる"奇妙な心"だといいます 。
AIは世界を一体どのように捉えているのでしょうか?
詳細はリプ欄の動画で!
#AI #大規模言語モデル #LLM #メカニスティックインタープリタビリティ #人工知能
2025年07月19日 06:16
https://pbs.twimg.com/media/GwK17N-XsAIvp8u.png
https://x.com/compassinai/status/1946318076217348250
-
論文解説:
Mechanistic Indicators of Understanding in Large Language Models. Pierre Beckmann, Matthieu Queloz.
https://chatgpt.com/share/687b59d1-5fd0-800e-b727-56a28493894c
-
Alexander Wei @alexwei_
1/N 私たちの最新の@OpenAI実験的推論LLMが、AIにおける長年の大きな挑戦を達成したことを興奮して共有します:世界で最も権威ある数学競技会—国際数学オリンピック(IMO)での金メダルレベルのパフォーマンス。
2025年07月19日 16:50
https://pbs.twimg.com/media/GwLl5lhXIAAXl5p.jpg
https://x.com/alexwei_/status/1946477742855532918
-
ちなみに、GPT-5は近々リリース予定です。ぜひお試しいただければ幸いです。ただし、IMOゴールドLLMは実験的な研究モデルです。このレベルの数学機能を備えたモデルをリリースする予定は、今後数か月間ありません。
https://x.com/alexwei_/status/1946477756738629827
-
イチゴがメダルかけててワラタ コードネームストロベリーがCoTモデルだからか
半年差でGoogleのAlpha Geometryに数学で追いついたってことか
-
Alpha Geometryは数学特化型だからな
-
マイクロソフトが法務部門で最大465人を削減。AIに代替され社内でも前例のない規模と驚きの声が上がる。AI導入は「未来への優先順位」と位置づけられ、知的専門職も、もはや例外ではない。かつて安泰とされた法務やエンジニアといった職種も急速にAIに置き換えられつつある。
https://x.com/tomoyaasakura/status/1946308573224681690
-
ChatGPT エージェントが ARG AGI 3 チャレンジの最初のレベルをクリアしました!
https://x.com/WesRothMoney/status/1946339042544763036
-
午後6時: 人間100% - AI 0%
午後6時30分: 人間100% - AIがArc-AGI-3レベル1を解く このペースだと、予想よりも早く飽和状態になるだろう
https://x.com/kimmonismus/status/1946309973253804112
-
さあ、GPT-5 の初リークです。
biology-benchmarks-inspect リポジトリで「gpt-5-reasoning-alpha」が見つかりました。 重要なポイント: これは 20 時間前のコミットで、o3 モデルが新しい gpt-5-reasoning-alpha エントリに置き換えられました。 このリポジトリが本物であれば、GPT-5 のリリースもそう遠くありません。
https://x.com/slow_developer/status/1946545812332540130
-
OpenAIは新たな手法で国際数学オリンピックで金メダルレベルのパフォーマンスを持つ推論モデルを開発。この手法はIMOに限らずに汎用的で数時間効率的に思考することが可能とのこと。このモデルは数カ月は出す予定はないが、GPT-5はもうすぐ出ると言及されている。
https://x.com/bioshok3/status/1946503926225985848
-
逆に数カ月後にGPT-5に組み込んでくるのかと思うと恐ろしいな
ついに、OpenAIが研究中のAIが国際数学オリンピック(IMO)で金メダルレベルになったと報告
①IMOのためにほぼ調整してない汎用モデル
②汎用的な強化学習とテスト時スケーリングで実現
③ツールやネットも使用してない
GPT-5もすぐにくるとのこと。一方、この実験モデルは数ヶ月間は公開予定なし
https://x.com/jaguring1/status/1946566592265064482
-
おっ公式も来たよ
GPT-5もうすぐだって
明確に申し上げます。GPT-5は近日中にリリースしますが、IMOで使用したモデルは別の実験モデルです。このモデルは将来のモデルに導入される新しい研究手法を採用していますが、このレベルの機能を備えたモデルをリリースするのは数ヶ月先です。
https://x.com/OpenAI/status/1946594933470900631
-
GPT-5が発見されました。 gpt-5-reasoning-alpha-2025-07-13 がOpenAIの生物学ベンチマーク設定に登場しました。 OpenAIがGPT-5を深層科学的推論の学習に積極的に活用していることがわかりました。 単なるチャットではありません。単なるベンチマークでもありません。 科学が目標です。
https://x.com/VraserX/status/1946535012624453793
-
サム・アルトマン
土曜日の早起きで、数時間かけて新しいモデルを使ってちょっとしたコーディングプロジェクトを試してみました。 5分で完成しました。とても素晴らしい出来です。 どう感じたかは分かりませんが…
https://x.com/sama/status/1946575101509734619
-
楽しみだわぁGPT5も研究用新モデルも
てか5の匂わせと同時期に次の画期的なモデル性能もチラ見せするの上手いなw
-
>>231
その部下が真の意味で多重人格だったら?
毎回、話す度に知識や経験、性格などが入れ替わる相手が
毎回異なる結果を提出するのは別におかしいことではない
「あなたは優秀な科学者です」みたいなプロンプトで回答の
精度が向上するというのは、普段俺達が触れてるAIは
巨大な頭脳のほんの一部分に過ぎないという証拠だろう
もしかしたら、googleの開発者なんかは巨大なデータセンター
丸々ひとつ分の全人格的geminiと対話してるのかもしれんが、
俺等一般人では知り得ない話だ
-
Haider. @slow_developer
openAIのノーム・ブラウンが2つの重要なポイントを確認しました:
1) IMO金メダルレベルの性能に達したモデルは汎用型であり、
数学用に微調整されておらず、ツールを使用せずに達成しました
2) openAIはLLMを大幅に改善する新しい技術を開発しました
これは新たなRLのブレークスルーか、アルゴリズムの改善でしょうか?
2025年07月20日 00:00
https://pbs.twimg.com/media/GwOm5wNW4AA7mwD.jpg
https://x.com/slow_developer/status/1946585831856095284
-
VraserX e/acc @VraserX
o3-alphaは単なるプレビューではなかった。
それはo5のデモだった。
そのことが明らかになるタイムラインは以下の通り:
– o1は2024年9月にリリースされた
– 12月に、OpenAIはo3の早期プレビューを公開した
– トレーニングには約3か月かかると言われている
– o4-miniは2025年4月にリリースされた。つまり、完全なo4は3月に完成していた
– o4-miniは簡略化されたバージョンなので、o4はすでにトレーニングと安全性テストを終えていた
OpenAIは現在、安全性評価のほとんどのプロセスを自動化しており、テスト時間を約1か月に短縮している。だから、o4が3月に完成したとすれば、o5のトレーニングはおそらく第1四半期に始まった。つまり、o3-alphaは研究ラベルの下でo5だったのだ。
そして、それは明らかだ。
すでに数学とコードにおいて超人的なレベルに近づいている。
まだリリースされていない理由は以下の通り:
1. それにはまだ粗削りな部分がある
2. すべてのツール、エージェント、推論を単一のGPT-5モデルに統合している
それが完成すれば、o5を核とするGPT-5は推論するだけでなく、論理、数学、プログラミングを支配するだろう。
この次のモデルは単なるチャットボットではない。
自律型AIシステムの基盤となるだろう。
2025年07月19日 20:02
https://pbs.twimg.com/media/GwNzGvAXoAE4N-U.jpg
https://x.com/VraserX/status/1946526029314752683
-
数学で人間を超えるのは時間の問題と言われていたがついに人間のトップクラスレベルの実力に達したか
プログラミングも大会第二位で人間がAIに敵わなくなる時代が目前に迫ってるな
-
いやどうだったっけ
去年までAIは数学全然ダメとか言われてたような気もするなあるいは一昨年か
-
>>269
むしろ人間が勝てた事に驚くよね。
囲碁将棋と同じ事が起きてる、今後の結果は明らか。
-
囲碁でいえば、イ・セドルがアルファ碁に1勝できた段階だね
その後、世界ランキング1位のカケツでさえ全く太刀打ちできなくなった
あまりのAIの強さにカケツは対局中に泣き出した
-
>>266
いやいやいや、、話はシンプルに「理解しているか」「理解していないか」の二択だよ。
たとえ多重人格のような状態であろうと、この点は変わらん
例えば、AIのAが「理解しました」と答えたにもかかわらず、AIのBが全く異なる回答をした場合、
そのAIシステム総体としては「理解していない」んだよ
-
人類はこれから天才的な多重人格とつきあわないといけないのか大変だなこりゃ
|
|
|
掲示板管理者へ連絡
無料レンタル掲示板