レス数が1スレッドの最大レス数(1000件)を超えています。残念ながら投稿することができません。
技術的特異点/シンギュラリティ【総合】避難所 20
2045年頃に人類は技術的特異点(Technological Singularity)を迎えると予測されている。
未来技術によって、どのような世界が構築されるのか?人類はどうなるのか?
などを様々な視点から多角的に考察し意見交換するスレッド
■技術的特異点:収穫加速の法則と半導体微細化の進歩曲線に基づいて予測された、
生物的制約から開放された知能[機械ベース or 拡張脳?]が生み出すとされる
具体的予測の困難な時代が到来する起点
■収穫加速の法則:一つの発見が新たな技術を生み出し、その技術が他の発明を生み出すという連鎖的な反応が、科学技術全体を進歩させるという仮説
★関連書籍・リンク・テンプレ集(必修)
https://singularity-2ch.memo.wiki/
★特異点アンケート
https://forms.gle/c6ZLjnheCEZftYgg9
※前スレ
技術的特異点/シンギュラリティ【総合】 避難所19
https://jbbs.shitaraba.net/bbs/read.cgi/study/13463/1711174734/
※不老技術の動向と医学関連はこちら
不老不死(不老長寿)を目指すスレ 避難所
https://jbbs.shitaraba.net/bbs/read.cgi/study/13463/1669450079/
次スレは>>950 が立てること 立てられない場合は早急に他者に依頼するか951以後の者が早急に立てること
誰も次スレを立てずに議論に没頭して落としたり次スレにフライングレスしないこと
未来技術板のURLは書かないし、あちらから誘導もしないこと
そんな手料理や段取り、後片付けは人間がやれば良いだろう
技術的失業の結果、持て余すほどの自由時間があるようになっているならば尚更
100万回言ってるけどロボが魚を3枚におろすとか卵綺麗に割るとかピアノ弾くとか職人技でなんか工芸品手先で作るとか
そういうの一気に蹴散らせるようになるのがある水準以上のAI出てきたタイミングだと思う つまりAGI
>>768
しかしカリフォルニアでは
自動運転タクシーに対して相当な反対運動が起こって破壊されることもあったのに、
中国人って欧米人に比べてAIに対する
反対運動ってあんまりしない感じだよな。
>>764
200エクサフロップスって脳のシミュレーションできるんじゃないの?
>>771
そういえばZOZOスーツってあったな
GPT-4o
会話とマルチモーダルが更に進んだ感じだな
her/世界でひとつの彼女にかなり近づいた感じ
Hello GPT-4o
https://openai.com/index/hello-gpt-4o/
地味だけどかなり凄い
これでますます新井紀子と西垣通は赤っ恥
https://www.itmedia.co.jp/aiplus/articles/2405/14/news081.html
音声モードでは、トーン、複数の話者、背景のノイズなどを理解する点が、既存のモデルとの大きな違い。
↑ひとつ上の次元に行った感あるな!
日本語への対応はいつになるのだろうか
ハードルが上がってるけど2010年だったらほとんどの人がこれをAGIと呼んでいる
って言ってる海外の人がいるな
かなり言語理解してる感あるな GPT4から1年ちょっとしか経ってないのにもうこれかよ
やっぱもう垂直上昇の入口に居るのは間違いないな
普通に複数の人間の会話に入って、話者の意図や感情やジョークまで理解してたな
これがロボに搭載されたら本当に人っぽいな。
ロボット警官が各警察署に配備されて24時間待ちを巡回するようになったら凄いな
ロボコップという映画があったけど、あれは物量が足りない
ロボコップそのものは優秀なんだけど元人間のサイボーグである以上
量産することが出来ないのがな、それゆえの映画なんだろうけど
何でこれがGPT5じゃないんだろ まだ上になるのか?
デモは印象的だったけどgpt4から14ヶ月でこれかぁ感は否めない
gpt5があったら出してるだろうしAIの進化が鈍化してきてるな…
https://x.com/garymarcus/status/1790122337058119725?s=61&t=QnSchBq9ctM8f7tmu2FYvA
>>746
不労より先に不老が来ると無限に労働させられる可能性があるのが怖いよな
しかも肉体労働とも限らない
賢い人間はマトリックスみたいに培養液のカプセルに入れられて
老化しない生体CPUとして無限に使われる可能性もある
>>771 ,785
昔の未来人みたいな銀色のピタピタ全身タイツを着ることになるのかも
AI開発の新素材でピタピタのくせに刃物も通らず夏冬快適みたいな謎素材で作られている
もしくは全裸で培養カプセルに入ってメタバースかな
例えば、GPT-4ってしりとりが出来ないとか揶揄されたりするけど、しりとりが得意な古典的チャットボットを作る能力はあるんだよな(コードインタープリタとか使えば実際出来る)
だからGPT-4が直接回答を生成するより、GPT-4が作ったチャットボットの方が素早く適切な回答が出来る場合もある
と思って書いたのが>>591 で、gpt2-chatbotの2はtwoではなくtoかな?と
特許取って囲い込む程でもない工夫やカラクリで改良したんだろうけど、それを明かすと手品の種明かしみたいになるとか
(だから feels like magic to me ?)
>>778
昔は人間が手作りした制御プログラミングに沿って動作していたところを
AIにリアルタイム学習とリアルタイム制御させるようになったから自然な動きが可能になったんだろう
>>779-780
なんかまた昭和みたいな話してんな ロボに包丁持たせるとか発想が貧困すぎる
AIで研究して品種改良して身だけの魚を作れるようにすればいいだけじゃん
肉や野菜も同じで可食部分だけ培養で作れるようにすりゃいい
その調子だと大豆加工品とかも食ったことなさそうだな
>>801
そんな服より周囲の空間に快適な環境を保つバリヤを張る技術の方が便利だし人々から望まれるだろうけどな。
https://twitter.com/bioshok3/status/1790139727259025689
gpt-4oの総じて感想としては、GPT-4 turboより全体的に推論性能が良くなり、めちゃくちゃ応答速度が速くなり、音と画像を入出力可能になった結果geminiのあの本当に人間みたいなAI演出したデモ動画がガチで現実になったというのが凄いなと感じた。賢さ的には総じてGPT-4 turboより若干賢いくらいでまだハルシネーションするけど、初めて、あ、このまま素直に改善していけば「人間になる」と感じた史上初の凄いプロダクトだと思う。
https://twitter.com/nemchan_nel/status/1790208921912979713
今朝発表されたOpenAIの最新生成AI「GPT-4o」めちゃくちゃ凄い! 朝Twitterでこの映像流れてきて、デモでしょ〜と思ったらほんとにアプリでもこの自然さとスピードで喋れて、言われなかったら人間だと勘違いしちゃいそう。もちろん日本語もOK
「これはもうAGIだろ」って意見出てきてるよな
侍がなんで盾使わなかったかというとそういう環境だったからで
今の警察や自衛隊も必要に応じて盾を使うことはある
未来予想って未来の環境や企業や政治、個々人の風潮がどう変化する予測でもあるし
培養液の中で幸せな夢を見せられてるってディストピア感たっぷりだけど
ある意味ネット廃人ってこれに片足突っ込んでるようなものなんだよな
人と会わず、楽しみは全部ネット、培養槽まで自己負担で買ってる
まあ自己紹介だけどさ
発表見た感じGPT4oは既存モデルをマルチモーダル化したけど性能自体は多少の向上にとどまってる感じか?まあまだ4.5ですらないからな
自分で日本語で音声対話してみてそのすごさ感じてーな
今チャットGPTにバージョン聞くとGPT4だって答えるけど無料版は3.5に基づくと答える
どっちで動いてんだこれ
科学的発見が出来るヤツまだかな〜
サム・アルトマン最高経営責任者(CEO)は
「映画で見たAIのようだ。コンピューターと自然な会話をできていると感じたことはなかったが、それができるようになった」
とブログに投稿した。
>>812
チャットAIはプログラミングコードを多少書いたりできるが自分の仕組みについてはあまり正確に回答しない
リリース直後のCopilot GPT-4 turboに君のバージョンはGPT-4 turboかと何回聞いても
いいえ私のバージョンはGPT-4ですと答えたし
今でもたまにCopilotは間違える
チャットAIの仕様については開発側の話を読むほうが早いし正確
画像生成AIって最近は細部破綻が少なくなったり、文字も正確に表示できるものも出てきたけど、なんで最初からそれをやらなかったの?
最初の方の画像生成AIって料理で例えるならまな板と包丁とフライパンとコンロだけで全ての料理作ろうとしてたように思えるんだよな。
しかも機能のオンオフすらおぼつかず、サラダみたいなのを作るのにコンロとフライパン使っちゃったみたいな。
別盛りとか出来ず一気に作ろうとするからオムライスみたいなの作れない。ご飯とケチャップの混ざったオムレツみたいになっちゃう。
こんな調理環境じゃ、たい焼きみたいなのはまず無理だろうな。
2倍速いのが50%安いからコスパ4倍だね
OpenAI、「GPT-4o」を発表、2倍速く、50%安く、〜テキスト・音声・画像すべてを理解
https://forest.watch.impress.co.jp/docs/news/1591161.html
感情表現も豊かだし、人間と同じ反応速度で答えられたら変な間もできないでスムーズに会話できるだろうね
「GPT-4o」発表。人間と同じ速度で会話可能。利用料は半額に
https://pc.watch.impress.co.jp/docs/news/1591159.html
今日は深夜2時からGoogle I/O
Google I/Oは5月15日深夜2時から。リアルタイムで観る方法
https://www.gizmodo.jp/2024/05/how-to-stream-google-i-o.html
3分16秒あたりからのはGPT−4oで作ったらしいけど、イントネーションがときどきおかしい以外はすごい出来だね
作成時間と難易度がどれくらいなのかが気になるな
動画とかの作成工程の動画が見たい
https://youtu.be/QpNmxx93RZQ?si=-EseJ-Q5AzQ4-Bel
グーグルは何出してくんだろうな
GPT4oはやっぱ分かりやすいデモ映像あるおかげで一般層にもすでに伝わってるようだがこの衝撃に勝てるか?
Googleが発表会をする前に、
OpenAIが「準リアルタイム・マルチモーダルLLM」を自然音声で応答可能な形で発表した
これは狙ってるな
Googleは少なくとも、これと同じレベルのものを出さないといけない
これって日常で使うAGIとしては
十分じゃないか?って意見もあるな
(できればクラウドを使わない)
自分で仮説を立てられるAGIは、知識を組み合わせて応用できる能力と
知識が少なくても想像できる能力が必要のようだ
http://blog.livedoor.jp/nwknews/archives/6133453.html
https://youtu.be/LFWBbmsB05U?si=s3QS0MVaOZEwpYVO
>>821
これは言われんとわからんわw
ちょうど10年前に生産されたペッパー君との会話。レベルが飛躍的に上がったな
質問の答えを無視して会話を進めるPepper
https://www.youtube.com/watch?v=3a7HAKvLsAk
たぶん世間一般的なロードマップ
2022年〜
→美術的特異点
言語処理の革命
2027年まで
→経済的特異点(労働と生活の変革)
知的業務を80%以上自動化
肉体労働を40%自動化
2030年〜2040年
→技術的特異点
科学や工学発明を自動化
同時に、生物的特異点も発生
俺は
多少遅れたとしても、2030年後半までにはASIが誕生すると楽観視予想
逆に、AGIからすぐにASIになるとは予想していない
社会で使えるやつと、自己進化できるAGIは内部設計が別物だと感じる
「10年でAGIを作って一気に世に出すより少しずつ出して社会に議論してもらう時間を作る」
「少なくともあと3,4世代は飛躍的に性能が伸びる。横ばいになるのはまだ先」
サムの発言をよく考えてみるとGPT-7あたりまで実は既に出来てるのかもしれん
今回のでもかなり凄いからね
あと3.4世代飛躍的に伸びるって、どこまでいくのだろう
AGIでこの世の全ての労働は駆逐出来ると思ってるけどASIに関しては技術的にどうすればいいのかもわかってないから何とも言えない
>>829
2027ってあと3年後。
年末に何かあるとしても3年半だぞ。
ロボットに実装して、大量生産して各現場に契約からの配備まで上手くいくかな?
定年ラッシュの労働力不足を補う感じでいけるのかな?
2020年代最後の年までにAGIが出来たとして、それは巨大なサーバセンターで電力をがぶ飲みしながら動くものだろう
そこから少しずつ小型化、低電力化が進めばさらに計算能力のあるAGIを設計できるようになる
ASI実現の鍵はそこにあるんじゃないか
速報 盲導犬、失業
視覚障害者の課題を解決するBe My EyesとOpenAIの技術を使用した、特別映像が必見の内容なので字幕付きで共有します。
AIの有用性をこれほど明確に伝える動画は他にありません。
https://x.com/ctgptlb/status/1790239603255103492?s=46&t=VbylbVzx4pxQ2euQpu_0Zw
ASI登場は、核融合発電が実用化するのと同時期かな
ASIなんて電力爆食いなんだから電力供給を気にしないとな
Open AI はgpt-4o以外の何かを今週まだ隠し持っていて発表する可能性が高いとopen AIリーカーのjimmy Apples。
https://twitter.com/bioshok3/status/1790325052661285077
DeepMindはGoogle I/Oでリアルタイムで動作するGeminiのデモ「Project Astra」を発表
その際にARグラスを見せる
https://www.engadget.com/google-just-snuck-a-pair-of-ar-glasses-into-a-project-astra-demo-at-io-172824539.html
Geminiは視覚応答で
>このシステムを高速化するには、ここに何を追加すればいいか?
>「サーバーとデータベースの間にキャッシュを追加すると速度が向上する可能性がある」と返答
また、記憶する機能も示唆
>どこに私のメガネを置いてあったか?
>「眼鏡は赤いリンゴの近くの机の上にありました」
これが、脳波で操作するARグラスだったら最強なんだけどな
さすがにチップ埋め込みまではしたくないけど
イヤホン型脳波計を日本企業が開発中らしいから期待する
わざわざデミスハサビスを発表会に登壇させる程のものだったか
OpenAIの発表を見た後だと、応答レスポンスが遅く感じる
動作に問題はないが
もうちょっと尖ったのが欲しいよな
googleも大企業病なんかな
https://i.imgur.com/y1fKxoq.png
Googleが本気出して
なんとかGPT-4に追いついてるぐらい
苦しいんだろうな
これはかなり苦しいな
やはりOpenAIはAI社会実現屋さんなんだよな。
既存社会の向上屋さんではない。
見ているのは既存社会へのAI統合やLLMの発展ではなく、新しいAI社会の実現。
ビッグテックがどこも追いつけないのは、見ているものが違うからなのかも。
AI社会実現の世界観をOpenAIは見据えている。
ゆえに自然にAIと対話できることは、恐らく精度面よりも非常に重要になってくる。
だから今回の発表は彼らにとって大きな意味のあるものだったのだと思う。
OpenAIはAGIを目指していて、LLMの精度上げは手段でしかない。彼らのビジョンに沿った製品発表をしていくので、今後もそういう乖離は起きるだろう。
まあでも精度面についての大幅な改善は近くまたアップデートが来るでしょうし、気長に待とうかなって感じ。
作ってないはず無いでしょ。
一先ずは自分としてはAIが社会にもたらすインパクトが最大化する方向にOpenAIが進んでいると思えたので、まだまだ楽しみです。
AI社会に備えるなら、開発者に限らず1〜3年の時間軸でAIがどこに到達して、そこに向けて自分たちが何をすべきか、相変わらずそこが重要かと思ってます。
いつまでにどんなのが出来そうだ、を発表して欲しい
google→ちょっと便利な社会にしよう
OpenAI→AIからAGIからASIを社会に実装
見ているビジョンが全然違うんだよな
視覚も聴覚も兼ね備え、人間並の速度で流暢に会話できるGPT-4oはAGI、控えめに言っても初期型AGI・プロトAGIと言っていいのでは
実際これが10年前に登場していたら多くの人がAGIだと騒いでいただろう
少なくともチューリングテストは完全に突破してるしな
「人間のような自律思考を持つのがAGI」
「人間の労働のほとんどを代替できるのがAGI」
「新しい科学的発見が出来るのがAGI」
今の多くの人が考えるAGIの定義は恐らくこんなんだろうか
ここ2年の進化で知らず知らずの内にハードルも相当上がってるんよな
新しい科学的発見が出来るレベルだとAGIではなくもはやASIの領域だと思うんだが
研究室ですごい技術が出来ても一般人が利用できる形にならなければ意味がない
グーグルがやってる仕事も間違いなく重要
それとAGIに達すれば自然と自己進化も出来るようになると思うんだよな 人間の場合、脳は自力で改造不能だから進化できないけど技術や道具という意味では何千年も進化させ続けてこれたわけだし
脳細胞は小さすぎていじれなくともプログラミングコードはいじれるし全容も把握できる コピペも楽
膨大な電力を使ってAGIを力業でぶん回しているうちにASIへ
https://twitter.com/gijigae/status/1790259698895343913
GPT-4oのリリースで一番注目したいのが遅延なく実現できる音声会話👏。
今までは音をテキストに変えたり、生成されたテキストを音に変える作業が必要だったけどGPT-4oからは音のまま処理できる。
英会話業界などGPT-4oが与える影響はとてつもなく大きい。
変革を迫られる前に、自ら変わらねばならない!
Googleの動画生成 AI、Soraに匹敵するレベルやね...
https://x.com/googledeepmind/status/1790435824598716704?s=46&t=VbylbVzx4pxQ2euQpu_0Zw
まだ、こんな人も居るからなあ
ITが爆発的に発展して、大学生がなんか会社作って上手くいったみたいなのは過去20年ぐらいに起きた人類史の非常に特異な時期で、
これからは中世みたいな時代が続くんじゃないですかね。
50年後も新入社員が作ったパワポのフォントを上司が直してると思いますよ。
入試も同じ問題解いてる。賭けてもいい。
午後2:15 · 2024年5月14日
https://twitter.com/bioshok3/status/1790489663272321335
なんか今までAGI/TAI予想をしているフレームワークは数多あったけど、全部2040年以降の中央値予想タイムラインになってて、AGI10年以内もおかしくないという感覚と乖離してるとずっと思ってたが、このepochaiのまとめた今まで見てきた中で最も説得力のあるTransformative ai予想の手法(既存のNNのスケーリングローを用いたダイレクトアプローチ)だと2032年に50%の確率で実現と最もらしい形で言えてこれだよこれと思った。
ちなみに2030年に来る可能性は44%と高く、2025年に来る可能性は10%、2027年に20%前後と数年から5年以内のタイムラインでも相当高くなっていて実感と近い。
イリヤ・サスケバ、オープンAIを退職したってさ
>>856
正常性バイアスってやつだね
正常性バイアス
自然災害や火事、事故、事件などといった自分にとって何らかの被害が予想される状況下にあっても、それを正常な日常生活の延長上の出来事として捉えてしまい、都合の悪い情報を無視したり、「前例がない」「自分は大丈夫」「今回は大丈夫」「まだ大丈夫」などと過小評価するなどして、逃げ遅れの原因となる。「正常化の偏見」、「恒常性バイアス」とも言う。
>>858
https://twitter.com/sama/status/1790518031640347056
イリヤとOpenAIは別れることになった。イリヤは私たちの世代で最も偉大な頭脳の一人であり、私たちの分野の指針であり、親愛なる友人でした。彼の才能とビジョンはよく知られている。彼の温かさと思いやりはあまり知られていないが、それに劣らず重要だ。
イリヤの話題が出たら必ず
「彼は一体何を見たのか?」って海外の人がコメントしてるよな
イリヤもXでコメント
「OpenAIが安全で有益なAGIを構築することを確信しています。」
>>846
OpenAIとイーロンの会社以外のビッグテックは既存社会の向上屋だしな
ヒトカネモノはそろっていても金稼ぎに縛られているため
ぶっ飛んだアイディアもなくOpenAIの二番煎じみたいなところに留まっているんだろう
>>850
Googleも今となってはただの検索スマホ屋だからな
今やMSのライバルはGoogleのはずだがMSよりやっていることが停滞している
動画解析とかできるようになってたのかよ
Geminiの方が性能良さそう
https://x.com/masahirochaen/status/1790325483462369308?s=46&t=VbylbVzx4pxQ2euQpu_0Zw
アルトマンのイケイケに嫌気が差したのか?
https://twitter.com/bioshok3/status/1790541713003745553
イリヤサツケバー氏がopenaiを退社!理由はわからないが、違うプロジェクトをするみたいだ。
ヤン・ライケ氏も退任!これはスーパーアライメントチームの主要メンバーがいなくなることになる。
ここ最近のopen AI からは安全性に係る人達(少なくとも5人、Daniel kokotajlo,Cullen O'Keefe,William Sanders,Leopold Aschenbrenner氏とPavel Izmailov)がどんどん辞めているのを確認している。これ大丈夫なのか?
とんでもないAGIが出来て制御不可能になったとか まあないか
>>865
邪魔な奴らがいなくなってアルトマン独裁体制に
このまま加速させようぜ
>>855
どうしても二番煎じ感があって驚きがないな
アルトマンのAGIやASIに対する思い入れは狂人的だよな
未来の歴史教科書でAI界の織田信長ことサムアルトマンって言われるかもな
推論能力を上げれば自立思考に達するのだろうか 全く別のアプローチが必要ならわりと時間かかるかもな 新たな科学的発見が思考能力必要かどうかも議論の余地ありそう
>>870
アルトマンが歴史教科書に載るならAI界のエジソンじゃないか
日本を中心に知られている軍事的指導者じゃなく世界的に知られている工学者(エンジニア)という意味で
イリヤ辞めちまったのか AI分野だと世界トップ技術者の1人だったろうに
この前の謀反失敗で社内にいられなくなったのか?
まあ安全性と聞くと大事そうだが「GPT2は危険すぎるからリリースすべきでない」とか石橋を叩いて怖くて渡らないレベルの過剰さは邪魔なだけだしな
オープンAIはさらに加速するだろう
サム・アルトマン
「AGIまであと1つか2つのブレークスルーしかないだろう」
グーグルの次世代AIアシスタント「Project Astra」のすべて
https://wired.jp/article/google-io-astra-multimodal-answer-chatgpt/
>大きな問題は、それを人々が何のために使うのかということです
>資金を投じているロボット工学にも革命的なものとなることを期待
これが一番の課題だ
これをただ便利にするために、既存のサービスに追加するんじゃ世の中は変わらん
(視覚障碍者にとっては神のような技術だが)
これを手作業ロボットに導入して、運動処理と処理ループさせることで、意識っぽいものが生まれるといいが
LLMから超知能(ASI)への壁について
https://www.reddit.com/r/singularity/comments/14vwsni/what_is_the_path_from_llms_to_asi/
>確かに、計算する能力、パターンを認識する能力、記憶する能力、比較する能力などの基本が必要であることはわかっていますが、
>意識的思考と無意識的思考の組み合わせが「本当の」知能に必要なのかどうかはわかりません。
自分がこういう行動をしたら、こういう結果になるだろう
→自己予測想像能力
ということは、こういう結果にならないようにこっちを選択したい
→意思決定と価値判断能力
じゃあ、今のLLMは自律性や自己認識能力がないだけで
知能(推論)はもう十分なのか?
実は違くて、本当の知能は過去問を大量に学習して正確に解けるようになることではなく、「知識を組み合わせて新しい知識を生み出す」応用発想力なのである。
>LLMはトレーニングデータとして人間が集めた知識に依存してしまっている
>>874
サムアルトマンは技術者じゃない
技術者はイリアサツケバーだ
サムは単なる経営者
今後はOpenAIの技術力が落ちると予想される
オープンAIには600か700人のゆうしゅ優秀なスタッフがいるしイリヤが抜けた分もカバーできるだろう
>>875
意識っぽいものを作ろうとするなら、そもそも最初から「人工意識」っぽいものでも作ろうとすれば良かった
そして今まで人間が想像したり描いてきた、意識のようなものが生まれたAIは、GPT4oレベルの機能さえ持っていないことがしょっちゅうあった
意識の類が生まれたそこそこの性能のAIと、意識の類の無い高性能で広範囲に応用できるAI(AGI)なら
後者のほうが技術発展を加速させると思う
>>870
織田信長は志手前で命を落としたイメージが強いから徳川家康の方がいいかと
歴史に興味がある身からするとASIには科学だけじゃなく歴史学や考古学の分野でもどんどん活躍していただきたいところ
スマートフォン版
掲示板管理者へ連絡
無料レンタル掲示板