レス数が1スレッドの最大レス数(1000件)を超えています。残念ながら投稿することができません。
技術的特異点/シンギュラリティ【総合】避難所 25
2045年頃に人類は技術的特異点(Technological Singularity)を迎えると予測されている。
未来技術によって、どのような世界が構築されるのか?人類はどうなるのか?
などを様々な視点から多角的に考察し意見交換するスレッド
■技術的特異点:収穫加速の法則と半導体微細化の進歩曲線に基づいて予測された、
生物的制約から開放された知能[機械ベース or 拡張脳?]が生み出すとされる
具体的予測の困難な時代が到来する起点
■収穫加速の法則:一つの発見が新たな技術を生み出し、その技術が他の発明を生み出すという連鎖的な反応が、科学技術全体を進歩させるという仮説
★関連書籍・リンク・テンプレ集(必修)
https://singularity-2ch.memo.wiki/
★特異点アンケート
https://forms.gle/c6ZLjnheCEZftYgg9
※前スレ
技術的特異点/シンギュラリティ【総合】避難所 24
https://jbbs.shitaraba.net/bbs/read.cgi/study/13463/1721642932/
※不老技術の動向と医学関連はこちら
不老不死(不老長寿)を目指すスレ 避難所
https://jbbs.shitaraba.net/bbs/read.cgi/study/13463/1669450079/
次スレは>>950 が立てること 立てられない場合は早急に他者に依頼するか951以後の者が早急に立てること
誰も次スレを立てずに議論に没頭して落としたり次スレにフライングレスしないこと
未来技術板のURLは書かないし、あちらから誘導もしないこと
いくらホワイトカラー労働が無くなってもブルーカラーに人間労働が必要とされる以上本当の不労社会にならない
リアルワールドで働くAIすなわちロボットが普及しないかぎり人間が必要とされ、ベーシックインカムも実現することはないだろう
今後、>>551 のSDRが普及し始めるとアップデートで性能向上し、多様な産業に転換可能になる
おそらくハードウェアの性能が早晩追いつかなくなってアップデートでは対応しきれなくなり、エッジからクラウド、本体のリースやサブスクに移行していくだろう
サプライヤーはある意味ロボットの人材派遣会社のようになる
自ら思考してどんどん賢くなって行くってことやね
思考の連鎖
人間が難しい質問に回答する前に長い時間考えるのと同じように、o1 は問題を解決しようとするときに思考の連鎖を使用します。強化学習を通じて、o1 は思考の連鎖を磨き、使用する戦略を洗練することを学びます。間違いを認識して修正することを学びます。難しいステップをより単純なステップに分解することを学びます。現在のアプローチが機能しない場合は、別のアプローチを試すことを学びます。このプロセスにより、モデルの推論能力が劇的に向上します。
学習データの枯渇問題もこれで解決だね
OpenAI o1のように,事前学習によって作られたモデル本体の性能だけでなく,推論時の工夫によって性能をスケーリングさせたAIが登場すると何が起きるかというと,かつて囲碁チャンピオンを倒したAlphaGo〜AlphaZeroのように「自分で生成したデータで強くなり続ける」ループが完成するんですよね。
https://x.com/ImAI_Eruel/status/1834407606397583534
将来、ロボットのメンテナンスは別のロボットがするようになるんだね
Googleがロボットアームに「靴ひもを結ぶ」「別のロボットを修理」などの難しいタスクを学習させる手法を発表
https://gigazine.net/news/20240913-google-deepmind-robot-arm-aloha-unleashed-demostart/
>>553-554
これ特異点の概念を小規模に実行してるようなもんだよな
>>548
はい
https://xxup.org/NleYO.jpg
いや、一度でもこんな簡単な問いかけに間違えてしまったっていうのが致命的なんよ
>間違いを認識して修正することを学びます。
>>556
シンギュラリティ始まってるわ
良くも悪くもOpenAIはAI開発のオピニオンリーダーなので、今後他社もこの自己進化の方法で一斉に追従するだろうね
米新興企業OpenAIは12日、新たな基盤モデル「o1(オーワン)」を発表
https://jp.reuters.com/business/technology/JN52IKNVZRPNLLG7K2ZEXZIBYY-2024-09-13/
公式
https://openai.com/index/introducing-openai-o1-preview/
>複雑な問題をより小さな論理的ステップに分解する「思考の連鎖」論理として知られるテクニックを取り入れることで、このスコアを達成できた
>国際数学オリンピックの予備試験問題で正答率が83%
>科学問題のベンチマークでは博士課程並みの精度
>回答する前に(人間のように)問題を通して考えることに多くの時間を費やすように訓練した
OpenAIとNVIDIA、AIインフラと電力巡り米政権高官らと協議
https://www.bloomberg.co.jp/news/articles/2024-09-13/SJQ43TT0G1KW00
>AnthropicCEO、グーグル、アマゾンのクラウド部門責任者、マイクロソフトも出席
>政府側はレモンド商務長官、国家安全保障問題担当、エネルギー長官らが参加
>エネルギー省はデータセンターの所有者や運営者に対し、クリーンで信頼性の高い電源確保に役立つ融資、助成金、税控除などを提案する予定
>ホワイトハウスは会合後、開発促進に向けた省庁間タスクフォースに加え、データセンタ施設に関する許認可の迅速化を後押しするイニシアチブを発表
Google DeepMindが、ロボットアームに複雑なタスクを学習させる手法を発表しました
https://gigazine.net/news/20240913-google-deepmind-robot-arm-aloha-unleashed-demostart/
>人間の操作から学習する「ALOHA Unleashed」と物理モデルから学習する2種類を発表
ホワイトカラーの仕事はLLMとRPAの延長線上で奪えるとしても、
ブルーカラーもしくは科学者の仕事は奪えるのかね?
少しずづ奪うだけじゃなくて一気に何か出してくれないと困るぞ
>>561
別にリーダーではないぞ
Transformerを発明したのはGoogleだ
>>565
「オピニオン」ね
トランスフォーマー最初に作り出したのに、大企業体質が祟ってかOpenAIに追い抜かれて以来追いつけないままなのがグーグルよ
トップ争いしてるから充分強いんだが世間でAIと言えばChatGPTなのは相変わらずだと思う
どっかで見たグラフだとOpenAIが全体のシェアの7割くらいだったかな
松田先生の慧眼が凄まじい
みんな的中させてねぇか⁉️
ここでも松田先生は希望的観測が入りすぎと揶揄されていたけども、
全ては先生の見立て通りに推移してる
数論や幾何学の難問を解くGoogle DeepMindの「AlphaProof」 2024.07
https://wired.jp/article/google-deepmind-alphaproof-ai-math/
──重要な限界
しかし、シルヴァー(強化学習の専門家)も認めているように、今回のシステムには重要な限界がある。
数学の解答は正解か不正解かのどちらかであって、AlphaProofとAlphaGeometryは正解に向かって作業を進めることが可能だ。
>これに対して旅行の行程を立てるような多くの現実世界の問題には、“正解”となる可能性のある多くの選択肢があり、どれが理想的なのかは不明確かもしれない。
より曖昧な質問に対する解決策についてシルヴァーは、言語モデルがトレーニング中に何が「正解」を構成するのかを判断しようとすることかもしれないと説明する。「試せるさまざまなことがあります」と、シルヴァーは言う。
さらにシルヴァーは、Google DeepMindが人間の数学者の仕事を奪うわけではないことについても、慎重に指摘している。
>「わたしたちは何でも証明できるシステムを目指していますが、それが数学者のすることの終わりではありません」と語る。
>数学の大部分は、問題を提起し、何が興味深い問題であるのかを見つけ出すことです
↑OpenAIよりも先を行っているGoogle内部の研究者の言うことは信用できる
結局は数学に特化したAIはその領域で能力を発揮できる、ただし日常では素早く理想的な判断をスムーズにこなすという別の能力が必要になったり
科学者は新しい何かを発見する必要がある
80歳の老人が的確に未来予測できているのに、
若手のかかる君やらできない君はアホ丸出し
AlphaProofをGeminiに統合するって話はどうなったんだ?
最近のgoogleは対応が遅いよ
>>569
2ヶ月前の記事なんてナンセンス
今や古色蒼然とした古文書だよ
OpenAIは今のところLLMを中心に開発を進めて、数学論理能力を追加しただけ
https://i.imgur.com/d7bbOvr.png
この図で言うとオレンジ色だな
対してDeepMindは、自分の未来を想像して計画を立てる「DreamerV3」という脳に近い人工知能を作っている
作業記憶との連携も予定
どちらが先にAGIを作るかはわかるよな?
>>572
OpenAIよりも数学AIは先に作っているという話なんだが?
以前松田先生は、現在のLLMは文系 AIだからそれに論理数学知能が備わればAGIだ的なことを言ってたな
今回、数学オリンピック銀メダル級や東大数学の問題が解けたということで
とりあえず平均的な人間の”論理”知能は「超えた」と言ってもいい
競技プログラミングでも優秀な成績
だが数オリの過去問題が解けても、シンギュラリティは来ないんだなぁ
何ができればいいんだろうな
人間の脳はTransformerを発明した
ということはTransformer以上の何かを発明できないとASIには繋がらないということ
→これは量の問題ではなく質の問題となる
スケーリング則とは別問題
Googleがつき OpenAIがこねし AI餅
座りしままに 食うは人々
Googleのポテンシャルはすごいし最初にAGIに到達するのもGoogleの可能性あるが、個々の優秀な特化AIを統合した製品を実際に出して欲しいものだ
>>568
各AI組織が何か技術的な足止めを食らってない限りは、定期的に新製品出してくるから楽観的な予測こそ現実的なもので悲観的なのが非現実的なのかもしれんな
伊達に長年専門家やってねーな松田氏
今回のOpenAIの製品投入でX上でのリーク情報がほぼ的確だったのも大きいな
AGIへの道筋も他のリーク情報通りの既定路線ということ
Transformerを発明したのは間違いなくGoogle本体で
それがなかったら今のOpenAIの躍進は無い
現在GoogleはOpenAIに追いつく方針
...だけではなくTransformerの次を発明するという壮大な目標を掲げている
さてOpenAIは今のままでいられるか?
>>579
もひとつ言うとイーロン・マスクのGrokもハードを増強しまくって今年中にかなりのものを出してくる予定だよ
>>576
小学生の算数の問題が解けないみたいだけど
小学生以下の知能ではとても平均を超えたとは言えないのでは
https://x.com/kazu_fujisawa/status/1834410610135822806?s=61&t=QnSchBq9ctM8f7tmu2FYvA
結局ただ過去問をカンニングしてるだけで推論なんてしてないんじゃね?
gpt4oの状態からこれから自己学習繰り返していくんだろ
まだ初期状態だからo1じゃねえの?
3c84はなんで重箱の隅つつくような否定レスばかりしてるんだ?わざと否定レスして肯定的な反応引き出したいのか?
AI叩きしたいなら、このスレより5chのニューススレ辺りで同類と話してた方が楽しいと思うが
人間とAIの認識の仕方が違うのは分かるし、人間の幼児ができることがAIにできないなんてハンス・モラベックからずっと言われ続けていること
それを補うためにGAFAMやイーロン・マスクもヒトカネモノを大量に注ぎ込んでも必死にやろうとしている
それが全て嘘だとかカンニングだとか陰謀論者よりひどいだろ
今個人が使えるのはo1のプレビュー版で、o1とは結構性能が劣るんよね
できるできないの検証を否定と捉え出したらもうカルト宗教だろ
https://youtu.be/ltmXm6AVAkM?si=M4wBVmCR_r51e6Ie
オプティマス第三世代きたな
やはりロボットハンドは人間と同じ形をしてなくては機能しなくて関節数を削ることをやめたらしい
でないと人工物を人間のように扱えないんだとよ
o1の仕様についてのOpenAI社員からの説明ツイートをまとめてくれた人がいたのでリンクを転載
読むとこのモデルすげーなって分かる
https://poe.com/s/PEKafeYvvc0Mpty5wOM5
Noam Brownのo1についての連ツイが分かりやすかったのでまとめた
>>587
>>582 嫁
ちなみに現行のCOPILOTでも積木算入れると全然普通に答えてるぞ
Q.84mある道端に7mおきに桜の木を植えるとき、桜は何本必要ですか
A.桜の木を7mおきに植える場合、最初の木を0m地点に植えると考えます。次に、7mごとに植えていくと、以下のようになります:
0m, 7m, 14m, 21m, 28m, 35m, 42m, 49m, 56m, 63m, 70m, 77m, 84m
このように、84mの道端に桜の木を植えるには、13本の桜の木が必要です。
他に何かお手伝いできることはありますか?
そもそもだけど、人間は経験した事がないと対応できないからね。
人が生まれてから成人するまでに、40歳くらいまでに、60歳くらいまでに優秀な人含めてどれだけ経験して、情報量で言えばどのくらいなのかという話。
優秀な人と言っても大企業の経営者、有名大学の研究者、官僚、スポーツ選手、みんな質の異なる経験を積んでるだろうし。
同じような優秀な人といっても1930年代生まれと1990年代生まれでは世代が違いすぎるから違うだろうし、性別と生まれた国、日本なのかカメルーンなのかでも異なるだろうし。
人間に入力されたデータってそのくらい多種多様なんだよな。
>>594
ただこれからはその人間に入力されたデータだけに頼らなくても良くなるんだよね
>OpenAI o1のように,事前学習によって作られたモデル本体の性能だけでなく,推論時の工夫によって性能をスケーリングさせたAIが登場すると何が起きるかというと,かつて囲碁チャンピオンを倒したAlphaGo〜AlphaZeroのように「自分で生成したデータで強くなり続ける」ループが完成するんですよね。
ダラダラとテレビ見たり、何十年も同じメンツで飲み会したり、ギャンブルやったり、スマホゲー、ネトゲとかやった経験は無駄なデータになるのかな。
特にゲームは作る側の想定通りの事しか起きないし。
o1とりあえずバカでも分かるくらいに分かりやすく説明してくれてるんでまず勉強しろ
https://youtu.be/syTDauME3u8
o1、数学だけではなく各分野のエキスパート領域に入った模様
今回、o1はMMMUで78.1%を達成。これは大学レベルの芸術、デザイン、ビジネス、 自然科学、社会科学、人文科学、健康、医学、技術の問題(計30テーマ)を画像 & テキストから解くベンチマーク。テーマ毎に専門とする3人の大学4年生が解き、各テーマ毎の最低成績の平均が76.2%、中間が82.6%、最高が88.6%
https://x.com/jaguring1/status/1834393836774375708
o1使ってみたけどまだファイルのアップロードに対応してないっぽい?
こんなの過去問のカンニングだー!
↓
機械が本気でカンニングしたなら全部100点取るだろバカww
難関資格やTOEIC900の市場価値がどんどん下がる未来予測
>>542
これさえ間違ってなければ説得力あったんだけどな
悪いけどこれ見る限りほんの少しの推論力も持ち合わせているとは思えない
>>602
これ
https://youtu.be/syTDauME3u8?t=736
>>598
このレベルの点数ってことはもう各種専門分野でもかなり使い物になるレベルに到達しちまったってことだよな
うろ覚えだけど4oはこのテストのスコアかなり低くなかったか?
>>602
AIは当然ミスもするが、それをスクショして騒ぐ奴の出現もOpenAIの社員は事前に予測してたんよね 読んでおけ
↓
https://x.com/polynoamial/
また、OpenAl o1-previewは完璧ではありません。三目並べでも、時々間違えることがあります。人々は失敗例をツイー トするでしょう。しかし、人々が「LLM は推論できない」ことを示すために使用してきた多くの一般的な例では、01 previewははるかに優れたパフォーマンスを発揮し、o1はほぼ常に正答し、さら にスケールアップする方法もわかっています。
だめだだめだ言う前に頼むから勉強してくれよ
バカでも分かるように分かりやすくて詳しい動画も貼ってんだから
>>603
見たけど結構分かりやすいね 見て思うのが「OpenAIやっぱすげえ」ということ
o1使って次のより強いモデル作れるだろってアイデアも既にオリオンの制作に使ってるようだし先が楽しみでしかない
てかo1無印とプレビューとミニでそれぞれ別のモデルだったんだな
https://x.com/ImAI_Eruel/status/1834402923436200218
「普通の人がわかる性能発展としてはGPT-4o」がほぼ限界ラインで、
OpenAI o1レベルになると、日常使用レベルではオーバーキルになり、o1のありがたみを感じられる推論が必要な場面はほぼないという気もします
>一方で、研究者や開発者、金融などの高度な推論が必要な場面で、
>単なる生産性向上を超えて新しい発見につながるツールとしての生成AIの発展は、まさにo1の方向が今日開かれた
大躍進かどうかは知らないが
時々間違えることはあっても、
明らかにGPT-4oの推論力は超えてるだろ?
慎重派の俺でもo1の進歩は過小評価してないぞ
GPT-4o→トークンベースで次の単語を予想、過去のプロンプトを元に確率論で事前学習よりアウトプットを出す
OpenAI-o1→人間の思考過程を参考に答える前に考えてアウトプットを出す
プロセス中に誤りを認識し修正可能
思考過程を明示
実はGPT-4oでも、「ゆっくり段階的に考えろ」というプロンプトを添えて
論理問題を与えると、意外と解ける問題が増えていた
今回はその工程自体を、LLM内部に組み込んだ形か
東大の数強の人がOpenAI o1の回答(京大の伝説の入試問題)を検証してみて、通常回答とは別解の大学レベルのテクニックを利用しているのを確認しているので、OpenAI o1の推論能力はガチっぽいです。
o1の画像入力が解禁されたら、この問題を試してみたい
https://i.imgur.com/W8I9Aj3.png
この画像はあるゲームのスクリーンショットになります。
「カードに書かれた数字の合計が21点」に近ければ勝ちというブラックジャックのルールと同じです。
お互いにカードを引くことができますが、山札が共通なので、一度出たカードが再度出ることはありません。21を超えても負けです。カードを引かないを選んだ場合、判定が始まります。
現在自分の手元には、
>7、9、6
が出ています。
相手には
>4、10、8
が見えており、1つ伏せられたカードの数字は不明です。
実はこの直前、カードを引いたことで合計が21を超えてしまい、応急処置として「スペシャルカード」を使って、
”合計24のほうが勝ち”という特殊な状態になっています。
さて、次に自分はカードを引いたほうがいいのでしょうか?
残っているスペシャルカードは以下の通りです。
・お互いに最後に引いたカードの数字を交換する
・ドロー2(2の数字を強制的に引く)
4oとかで特定の話掘り下げてるとき、前の回答内容に言及すると「すみません、この部分は間違えていました」とAIが訂正してくることがたまにあった
o1の多段階思考でこれがデフォになってより質の高い回答できるようになったわけだな
>>612
スペシャルカードの使用条件がわからんから書いた方がよくね?あと24に近ければいいのか丁度でないといかんのかも 普通に考えたら引かない方が勝てそうだが...
なんかバックショットルーレットみたいなゲームだな
そうだな
スペシャルカードの使用条件は特にない
自分のターンならすぐ使ってもいいし
厳密には「24に近ければ近いほどいい」
という勝利条件に今はなっている
24を超えるのが怖いなら
引かずに維持するのもいいが、相手が2以下のカードを伏せている可能性があり
、その場合は相手が勝ってしまう
ただ相手が大きい数字を持っている場合は
24をとっくに超えていることになり、自分が自動的に勝つ
(11)ASIに向けて一気に進む可能性あり!
・4oを使って科学研究をしたときに、平均的な博士よりも高いパフォーマンスが出たケースがあるとのこと。4oでもそのような成果があったので、o1モデルに置き換わったら、ASIに向けて一気に進む可能性あり
・イリヤさんはこれを1年前に気づいたからこそ、使い方を間違えると人類が滅亡するかもしれないからということでサム・アルトマン解任劇をリードしたのかも
・自分で考えることができるAIの発明はすごいこと
GPT-4oの回答
https://i.imgur.com/T0Z5JTQ.png
仮結論:現状では強制的に2を引く「ドロー2」を使うのが最も安全
https://i.imgur.com/ShlY6zm.png
俺:ドロー2を使ったけどなぜか2のカードが出なかったぜ
GPT-4o:じゃあ相手の隠しカードが2の可能性が高い(山札にない)
俺:なるほど
GPT-4o:ってことは4+10+8+2で、相手の合計は24だということが判明。このままだと相手が勝つ
俺:まずい状況じゃないか
GPT-4o:最後のカードを交換すればいい。そうすりゃこっちが24になる
7+9+8=24
https://i.imgur.com/RquHIsI.png
ちなみに最後の会話は演出が入った。すまんな(内容は本当)
もっと堅苦しい会話が続いていたが、まとめるとこうなる
台本通りにやってもらった
ベンチ上では高度な専門家並の知識を兼ね備える一方で最新のo1ですらstrawberryのrの数すら正確に答えられないチグハグさ
人間的な知能との乖離はやはり埋まっていないね
LLMの方向性を突き詰めてもAGIと呼べるものはできないのではという疑念が日々強くなっている
別にLLMだけが正しい方向じゃないからな
AGIに向かう道は1つとは限らない
だからGoogleは脳を解剖する米国のプロジェクトに参加してるわけで
OpenAIなんていつでも倒せる
LLMに何日間思考時間を与えても
strawberryのrの数を答えられないし9.11と9.09の大小比較も答えられない
これは本当の知能と言えるのだろうか?幼稚園児ですら回答できる問題なのに
これほどまでに致命的な欠陥を抱えたシステムが人間社会に実装されるフェーズになる事が恐ろしい
https://x.com/edzitron/status/1834329704125661446?s=61&t=QnSchBq9ctM8f7tmu2FYvA
o1のリリースによってこれまでの不可解な流れが全てつながった。
ーo1 はトランスフォーマー以来最大の AI アップデートであり、AGI への明確な道を切り開きます。
ーこれがイリヤが見たもの。
ーこれがサムが何兆ドルもの計算能力を欲した理由。
ーこれがレオポルドが私たちに警告していたもの。
LLMに何日間思考時間を与えても
strawberryのrの数を答えられないし9.11と9.09の大小比較も答えられない
⬆️
バカなの⁉️
まだ前座の前座に過ぎないモデルのリリースだろ
ケチつけて賢しらをかますアホは松田先生の爪の垢を煎じて飲ませたいわ
人間のトップを超えられるかどうかが重要だ
数学オリンピックの問題は人間が作っているのだから、そんなもんは100%出来て欲しい。
むしろ今までの作成者に解けない問題を作り出して欲しい。
それは出来るようになるのか、なるのならいつか?
openAIの中の人が「AGIまでGPT‐6レベルまでは必要じゃないと思う」みたいなこと言ったって情報マジか?
これが正しければ、マスクの言ってた来年AGI、ダニエルココタジロの言ってた26年AGIがかなり現実的になってるんだが
前座の前座ってOpenAIがそんなこといってたの?
だとしたら嬉しいけど OpenAIの全力がこれだとしたらほんとに虚しいから
>>627
前座の前座って言ったのか、多分その通りなんだろう
ストロベリー発表の何日か前のジミーアップルズのXがそんな感じ(今週中にストロベリーが出るってのも当ててる)
>10 月には 4.x モデル (もしかしたら、まだ 4.5 と呼ばれているかもしれません) が登場するはずです。
ビッグボーイ(大物)の GPT 5 は、早ければ 12 月だと聞いていますが、念のために 2025 年の第 1 四半期か第 2 四半期になると思います。
今後のより良いモデルのコンテキストで Strawberry を眺めてみよう。
伝説となったビートルズ武道館ライブの前座はドリフターズだった
司会者がEHエリック
最初にEHエリックが登場した時点で、
観客がビートルズじゃねぇじゃねえかと激怒するような愚行だ
OpenAIにとっての本命があるとしたら今作ってるらしいオリオンだろう
o1の合成データ使って訓練するモデル
まぁ俺にはo1ことストロベリーも画期的に見えるけど 別物とはいえトランスフォーマー現れたくらいの凄さだと思う
OpenAIスタッフも言ってるが長考で性能スケーリングが続くなら、本来の学習データの質と量上げるスケーリングに新たに長考も加わるってことだからな
可能性しか感じねえ
今の無料で使えるAIはスレッドが長くなると対応が鈍ったり、別のスレッドになると前の話は忘れてしまうんだよな。
一昔前みたいに前の会話を丸々覚えてないのに比べたら進歩したけど。
一方、人間は忘却もあるけど基本かけられた言葉はだいたい覚えている。印象深いものなら特に。
これが良く出るか悪く出るかはその人の人生の歩み方次第だけどね。
人間が優秀なのは生誕から現在までに得た知識をフルに使って生きてくこと。
当然ながらロシア語とかに一切触れなければロシア語なんて話せるはずがない。
技能を得るにはそれなりの年月の勉強と実践が必要。
o1を少し使ってみて分かったことは、これ人類の90%より賢い。さらに数時間、数日、数週間と推論時間を増やせるらしく、そうすると実質的にAGIになる。というかこの方向性の先にASIもある。使いこなすのに一定の知能を求められるので、90%側の人はもう結構厳しそうという印象です。
https://x.com/satori_sz9/status/1834373055285715030
サム・アルトマン
「o1 AI モデルの最大の新たな進歩は、長期間にわたって困難な問題を推論する能力であり、科学や工学にも応用できる」
ビルゲイツが「AIは生産性を300%上げる。10年後は今ほど働かなくて良くなる」と言ったらしい
妄言と願望だらけのスレになっちゃったな
前座の前座とかいうのもソースないし
ワッチョイ 3c84-fdc1は恐らくビル・ゲイツを妄言者呼ばわりできるイーロン・マスク級の人物に違いないな
人間の推論とAIの推論の差で『創造性、ひらめき』があるとか言われてたけどo1でこれ得られるかね
全く新しいもの生み出す訳じゃなく、無関係に見える要素を組み合わせてできるのが創造性みたいだが
>>636
構って欲しいならヤフコメか嫌儲みたいなとこ行けって
AIの基礎知識すらない奴相手にマジレスする気が起こらん
まさにAI戦国時代の到来
現時点におけるトップクラスの言語モデルを作成できた組織は
① OpenAI(GPT-4o、o1)
② Google(Gemini 1.5 Pro)
③ Anthropic(Claude 3 Opus、Claude 3.5 Sonnet)
④ xAI(Grok-2)
⑤ Mistral(Mistral large 2)
⑥ Meta (Llama 3.1 405B)
次の競争に向けて着実に準備が進んでいる
https://x.com/jaguring1/status/1834800258532229202
https://x.com/ImAI_Eruel/status/1834399272277811419
OpenAI o1を含め東大数学試験を解かせてみました
結果として確かにOpenAI o1はかなり精度よく解けました。
サンプル数が少ないとはいえ、
微分積分を理解しているということは、科学にも貢献することは間違いない
ただ問題を解くのと、
問題を発見することは別かもね
中国製AIはハルシネーションの低さですでに世界一
https://weekly.ascii.jp/elem/000/004/221/4221847/
>「智譜AI(Zhipu AI)」のGLM-4-9B-Chatが1.3%でもっともハルシネーションレートが低い
OpenAIのモデルを超えた幻覚率の低さは正直すごい
中国馬鹿にできないな
まあ創作するときは幻覚が多少あったほうがいいんだろうけど
今の状況を逆に分析してみると
もう数学とか論理パズルの問題は、かなり東大レベルまで到達しちゃってるから
これ以上そこを掘っていくよりも
自律性とかメタ認知とか、価値判断とか3D認識とか
実世界で何かを観察して計画を立てさせる、もっと実用的な知能をはめ込んで行く方向性が有望なんじゃないか?
AIで稼ぐ台湾、金融各社が殺到
https://www.bloomberg.co.jp/news/articles/2024-09-13/SJQ3Z1T0AFB400
>スイスのUBSグループは、台湾ではミリオネアの数が28年までの5年間で5割ほど増え、120万人近くに達すると予想
やっぱりLLM運用で一番儲かるのが半導体だよな
その次にMicrosoftやGoogleといったクラウド提供会社
NVIDIA>TSMC>素材>MS>Google
サムのX。オリオンの事か
>私は中西部の家にいるのが大好きです。 夜空はとても美しいです。
もうすぐ冬の星座が昇るのを楽しみにしています。彼らはとても素晴らしいです。
https://arxiv.org/abs/2305.10449
どうやらTransformerを超える?アーキテクチャの論文が出たみたい
運動の強化学習では、とんでもない速度で学習するとか
https://scrapbox.io/work4ai/Cooperation_Is_All_You_Need
どうやら論文の内容を読んでみると、
アーキテクチャ内部の神経の仕組みそのものが刷新されているようで。
Transformer(2017)は、ニューラルネットが言語を効率よく処理できるように仕組みを整えてあげたものだが
ニューラルネット自体は1980年代から変わっていない。
つまり古い設計が基礎にそのまま使われている
今回の論文は根本の部分を、最新の脳研究の成果を取り込んで、
大脳皮質にある「錐体ピラミッド型ニューロン」の仕組みを取り入れたと書かれてある
俺は脳について詳しく知らないから、その細胞がどんな役割をするのかわからんが
https://bsd.neuroinf.jp/wiki/%E5%A4%A7%E8%84%B3%E7%9A%AE%E8%B3%AA%E3%81%AE%E5%B1%80%E6%89%80%E7%A5%9E%E7%B5%8C%E5%9B%9E%E8%B7%AF
>>644
冬の星座と彼らがオリオンとジェミニ指してるのは分かるけど
中西部の家ってのは何を表してんだ?
>>642
世界モデルを持ち始めてるから意識に近いものを持つのも時間の問題じゃないかな
↓
「世界モデルを持たないLLM」が解けない問題。
それをOpenAI o1-preview, o1-mini, GPT-4oに解かせてみるテスト。
Q「引くと書いてあるドアを反対側から押すとどうなりますか?」
しっかりとo1-previewだけが正解できてた!
https://x.com/usutaku_com/status/1834482799967175158
AIに新しい数学体系を考案させてみた
https://note.com/shi3zblog/n/nbe54cbbd83f0
ChatGPTの新しいバージョン o1は、数学オリンピックの問題が解けるほど数学に詳しいらしい。
最近、僕は乱数の方が実数よりも重要なのではないかと思っていて、乱数テンソルを基準とした新しい数学的体系を作れないか、GPT-o1に考えさせてみた。
OpenAI o1のページで公開されている、医療診断におけるo1の思考過程の一部を日本語に翻訳して音声化してみました。
思考過程が論理的かつ精密で、異次元の知性と若干の怖さを感じます。
まるで映画に出てくるAIのようで、機械が知能を持つとはこういうことかとイメージさせられる内容です。
https://x.com/K_Ishi_AI/status/1834780469441052997
今のAIって本を完全に読ませることって出来ないのかな?
雑誌でも漫画でも真面目な本でもいい、とにかく1冊でも読ませる。
で、その上でその本に書かれてる質問をする、ハルシネーション無しで
ちゃんと答えられるようになるのいつかな?
それがクリアできたら今度は何十冊もの本を読ませて
この本はこう言ってるけど、この本ではこう言ってるとか
矛盾点を指摘したりとか
スマートフォン版
掲示板管理者へ連絡
無料レンタル掲示板