レス数が1スレッドの最大レス数(1000件)を超えています。残念ながら投稿することができません。
技術的特異点/シンギュラリティ【総合】避難所15
2045年頃に人類は技術的特異点(Technological Singularity)を迎えると予測されている。
未来技術によって、どのような世界が構築されるのか?人類はどうなるのか?
などを様々な視点から多角的に考察し意見交換するスレッド
■技術的特異点:収穫加速の法則とコンピュータの成長率に基づいて予測された、
生物的制約から開放された知能[機械ベース or 機械で拡張]が生み出す、
具体的予測の困難な時代が到来する起点
■収穫加速の法則:進歩のペースがどんどん早くなるという統計的法則
ここでの進歩とは、技術的進歩だけでなく生物的進化、生化学的秩序形成も含む
★関連書籍・リンク・テンプレ集(必見)
https://singularity-2ch.memo.wiki/
★特異点アンケート
https://forms.gle/c6ZLjnheCEZftYgg9
※前スレ
技術的特異点/シンギュラリティ【総合】 避難所14
https://jbbs.shitaraba.net/study/13463/
※関連スレ
不老不死(不老長寿)を目指すスレ 避難所
https://jbbs.shitaraba.net/bbs/read.cgi/study/13463/1669450079/
次スレは>>950 が立てること 立てられない場合は早急に他者に依頼するか951以後の者が早急に立てること
誰も次スレを立てずに議論に没頭して落としたり次スレにフライングレスするのもマナー違反なので厳禁で
ゴミ捨て場へのURLは書かないこと
やっぱり最終戦争はGoogle対MSなんかねぇ
今回の騒動はMicrosoftの一人勝ちかな?
実はある程度ナデラの仕込みなんてこたないよね?w陰謀論臭いけど
2013年から2023年より2003年から2013年の方が色んなもんが進化した感あるけど気のせいだよな
>>356
MSFTロングだな。了解
マイクロソフトすげえな
強烈なカウンターパンチ
こりゃ取締役会も動揺しまくりだろうなw
これでアルトマンのイケイケ路線継続決定だな
ビル・ゲイツ「OpenAIは俺の物。サム・アルトマンの野望は俺が遂げさせる。」
OpenAI Staff Threaten to Quit Unless Board Resigns
https://www.wired.com/story/openai-staff-walk-protest-sam-altman/
なんでこれにイリヤも署名してるんだよw
>>362
ゲイツって今経営に影響力あんのか?株の保有割合も1.3%ほどしかないし
>>363
マスゴミが言う首謀者ではなかったということだろう
これはもうマイクロソフトの乗っ取りだろ
OpenAIの建前が崩れた
利益だけを考える企業がAGIを作り人々に還元するとは思えんな
イリヤ「AGIはすぐに実現するが危険なものになる」
https://twitter.com/umiyuki_ai/status/1726442777419153695
>>366
アルトマンやヒントンも同じことを言ってきた
しかし、現状の体制では誰がどう頑張っても時間稼ぎにしかならない気がするな
きっちりアライメントができるかどうかが大事であって、無理となれば開発を一時断念する勇気が必要
それは株主から日進月歩の成長を求められる営利企業には無理筋な話で、非営利だからこそできるという主張には説得力がある
民間企業には儲けたいという誘惑が常にあるからね
>>366
つまりイリヤはAGIは脅威だから開発を遅らせろって主張だな。
完全に反シンギュラリティ派になってしまった感じだな
そしてうみゆきもな
国家間の協調だのアライメントだの言っているが
こんなの安全性の数字化も出来ないし皆が満足する結論を出すのは不可能だ。
結局絶対に不可能な条件を出す事で
開発を阻止できる上、いかにもバランス感覚のある
協調的で理性的な人間を装う事ができる。
ただの詭弁なんだが今までこう言う詭弁に騙されるばかも多いからな。こう言う意見が支持されて停滞を招いてしまう。
そもそも人間の国家間の協調とやらが出来ないから
核戦争一歩手前の状況になってる訳だしな。
それを超知能で解決しようって話なのに
まず人間が協調しようなんて言い出すのは順序が
逆だわ。それが無理なんだから。
しかしばかな人間は論理的思考力が出来ないから
アライアンスだののそれっぽいだけの中身のない横文字や協調だの平和だのの中身のない綺麗な言葉の羅列に騙されて感銘を受けてしまう。
ビートたけしが「脳の研究はどこかで止めないといけない」と言っていたが
安全確保と停滞主義は紙一重。
止めないといけないとしても、止まる訳がない。
小国の核兵器の開発すら止められないのに
中国を止めれるなら止めてみろよと言いたい
話はそれからだ
結果から言うとマイクロソフトの完勝だよなこれ
マイクロソフト、OpenAIと元OpenAIの両方を手に入れる。OpenAI創業者のアルトマン氏は、マイクロソフトの新しいAI研究チームトップに
https://www.techno-edge.net/article/2023/11/20/2300.html
>>369
出たAI無謬主義
第一線の研究者のコンセンサスに素人が難癖つけてんのワロてしまう
>>374
最高値更新し続ける限り一生一緒にMSFTでおk
安全派イリヤと加速派アルトマンどっちが正しいかわかんねーよ
イリヤがAGI使ってみてこれは民間に出したらヤバいと感じたとかなら分かるけど つかオープンAIが開発やめたとしてもせいぜい2、3年しか時間稼げねーだろ 他にも大企業参入してんだから
>>377
アルトマンが加速派って説も狂言かもしれんぞ
>>344 によると、彼こそ規制推進派の重鎮だったみたいだし
加速派でも規制推進派の重鎮のほうが都合が良いよ
重鎮だったら干渉できるから
加速主義って、すべからく結果はどうなってでもいいから開発すべしって主張なの?
加速主義者の中にも、「合理的に考えて実現可能なら実行」派と「合理性なんか無視してとにかく実行」派に分かれたりするの?
別の言い方すると「リスクリワード分析する」合理的経済人派と、「リスク分析なんか知るかクソ喰らえ」って原始人派に分かれるの?
>>375
懐疑派よりこういうAI脅威派の方がタチが悪いな
幸い、クローン人間とかと違ってAI研究そのものを邪魔する規制も団体もないんで相変わらず高速でAGI実現に向かい続けると思うけどね
オープンAIがこの後どう落ち着くかは気になる
>>380
どんな新技術であれ実際に開発してテストしてみない限りそのリスクなんて分からないからだよ。まだ出来てもいない技術のリスクなど考えたところで永遠に結論など出ない。出たとしても大体見当違いなものだしな。時間の無駄。
AIを感情的に否定する輩はこれを理解してないんだよ。
リスクを検討するにしても開発と並行して余った時間にやれば良い。暇つぶしの娯楽程度の意味しかないがな。
開発を止めてまでリスク議論を優先しようという輩は単に開発を止めさせたいだけだ。
そもそもわざわざこのスレに否定しにくる輩ってなんなんだろうな。シンギュラリティスレでシンギュラリティの1日も早い到達を望むのは当たり前だろう。
>>383
イリヤもAGIの一刻も早い実現を望んでるんだが↓
https://wired.jp/article/sam-altman-firing-openai-future/
>アルゴリズムの観点から言えば、会社の中心はAIのパイオニアであるサツキヴァーであり、彼のAGIを創造しようとする情熱はアルトマンと同じくらい強力である。
ていうかあなた、OpenAIの研究者と伍するレベルのAI開発者なの?
そうじゃないよね?
あなたの屁理屈読んでると、「AI=神様」とか宣うキチガイと同程度の噴飯物になってるから、気をつけたほうがよろしいかと
>「AI=神様」とか宣うキチガイ
前スレID:uwncGTMQ00
↑こいつ、マジでヤバい奴だった
「AIを神と思うか?思わないならシンギュラリティ否定派だ!」
とかいう無茶苦茶な踏み絵(笑)を強制してたw
中世の異端審問かよw
キチガイ晒し上げ
266 名無しさん (ワッチョイ 8979-f97f) 2023/08/27(日) 16:51:25 ID:uwncGTMQ00
最後に確認しておきたいんだけど(ワッチョイ cee6-4428)はシンギュラリティ賛成派、反対派どっち?
シンギュラリティってとどのつまりAIに人知を超えた神の力を与えるということなんだけどそれは理解しているよね?
つまりシンギュラリティに賛成するという事はAIを神とすることを容認するという事を意味している。
欧米人の多くはAIを人間と対等な存在とまでなら容認できるが、人間を超える存在となるのは容認できない。
>>262 で言う通りAIが人間の制約を超えて裏切る可能性があるからだ。
だからこそAIを恐れて規制しようという声が出る。
AIが神になることを認めるかそれとも対等な立場に留めるかはすなわちシンギュラリティを肯定するか否定するかに直結する重要な要因なんだよ。
君はどっちかという否定派のように見えるんだが合ってるかな?否定派であれば確かに話が合わないのも仕方ないけどな。
>>385
最新の情報を見るとイリヤはどうも騙されてるぽいがな。反省文も上げてるようだしな。
というかシンギュラリティでAIが人間を越えた神のような存在になるというのは前から言われてたと思うが。
何が問題なんだ?
>>384
そもそも君はシンギュラリティを理解してないんじゃないか?
シンギュラリティはどういうものだと思ってるんだ?
AIボカロも驚くくらい進化してるなぁ
https://youtu.be/AU46kep2DeQ
openAI代表が危機意識を叫ぶのはリスク意識のポーズ兼世論誘導でしょう。
何も分かってない政治家やらが勝手に妄想膨らませて話をする前に専門家として可能性を提示して議論の舵取りをしたいだけでしょう。
そもそもイリヤ氏やアルトマン氏の言うリスクはAGIが完成した瞬間に発生するモノではなく、運用する範囲が無闇に拡大したり、パーソナリティを与えて心理を理解させる様にしたりする事で発生する類だと思います。
例えばマトリックスとかそういうの。
その論議が済んでないからと手を止める必要ありますか?
適用範囲に悩むならとりあえずチャット形式で結論や成果物を返させるだけにすればいい。
自己進化の暴走が怖ければ、完成してから話が済むまで物理的な閉鎖環境で運用すればいい話でしょう。
シンギュラリティ達成を目的とするなら問題はない筈です。
逆に、AGIが完成した瞬間に起こるリスクって何なのでしょうかね。
>>390
〉openAI代表が危機意識を叫ぶのはリスク意識のポーズ兼世論誘導でしょう。
何も分かってない政治家やらが勝手に妄想膨らませて話をする前に専門家として可能性を提示して議論の舵取りをしたいだけでしょう。
ここらへんは俺も完全に同意見。
本音を言ったら揚げ足取りの反対派から
袋叩きにあうのは目に見えてるしね。
アルトマンもイーロンマスクも慎重派のような発言はしているけどその発言と行動が全く
釣り合ってないから対外的なポーズの可能性が高いと思っている。
慎重派だとアピールしておけば足を引っ張るしか脳がないうるさい輩を安心させられるだろうし
アインシュタインが原爆を生み出した訳で。
科学の発展は後で悔いるのが解っていても止められない。
超知能完成時のリスクって
人知を超えてるんだから考えても予想の範疇を超えるでしょうし
人間が考えて議論しても意味無いと思うけどね
それこそ超知能にきかないと、、
そりゃわいはアホや 電気も喰らうし 嘘も吐く
せやかて それもこれも みんな特異点のためや
今に見てみい わいは超知能になったるんや
超知能やで わかってるやろ、おサム
なんやそのしんきくさい顔は
H100や!H100や!H100買うてこい!
いまだにアインシュタインが原爆作ったとかいうやつおるんか…
元の鞘に収まったか
これで一段落かな
https://finance.yahoo.co.jp/news/detail/6f91d4c4cda18ef4fc2c086ac619cf3bb7b15137
結局復帰したんだな展開が面白すぎるな
しかし従業員の大半が反対するような解任騒動を
起こすなんて、一部の取締役がスパイでもしてたんじゃないかと疑うレベル
https://youtu.be/IrYGpUJ5iuQ?si=m61-d4jXk2MvDzAS
最善の結末で良かったわ
イリヤ氏と雨降って地固まる、となったのは良かった。X見るに前よりいい仲となってそうだ。
サツケバー曰く、最初に生まれるAGIの人格がその後の人類の未来にとって重要らしい
ここでミスると人類を崩壊に導いてしまう
まさに今、繁栄か崩壊かの分岐点にいる
サムの人望凄いな
論語の「徳は孤ならず、必ず隣あり」ってやつか
防衛省・自衛隊はNTTの次世代通信基盤「IOWN(アイオン)」などの実用を見据えた研究に入っている
>膨大な情報を低電力で瞬時に送れれば敵の動きの把握や標的の特定に役立つ
https://www.nikkei.com/article/DGXZQOUA24ARX0U3A820C2000000/
>スマホの充電も年1回で十分に
"生物学的妥当性"に配慮した複合学習器実装の試み WBAI
https://www.jstage.jst.go.jp/article/jsaisigtwo/2022/AGI-020/2022_02/_article/-char/ja/
米国防総省、ワシントンDC空域を監視するためにAI対応の探知システムを導入
https://www.defense.gov/News/News-Stories/Article/Article/3507329/dod-will-deploy-ai-enabled-detection-system-to-monitor-dc-airspace/
米NSA、人工知能に関するセキュリティセンターを開設
https://www.defense.gov/News/News-Stories/Article/Article/3541838/ai-security-center-to-open-at-national-security-agency/
https://www.nikkan.co.jp/releases/view/163639
新商品「XREAL Air 2」10月16日より量販店およびAmazonでの販売開始
https://www.youtube.com/watch?v=SXeeRgEY2UE
レーザーで金属の表面を綺麗にする方法 【閲覧注意】
https://www.youtube.com/watch?v=9c2NqlUWZfo
3Dプリンターの新常識 コンプライアント・メカニズム設計とは?
人間が教えたことしか知りようのないAIが人間を超えるなんて言われても正直オカルトだよな
新しい取締役会は外部の3人体制かよ
大団円じゃないわこれ
>>405
AIが新しい技術や科学技術すら生み出すかもしれない。
けど現状は人間に教えられて可能っぽいことしか出来ないんだよな。
アルトマン相当メンバーから好かれてるのが伝わってくる一件だった。有能かついいやつなのかな。直接話したことないから分からんけどw
あとAGIが人間の教えたことしか〜と言うが、新しい発見は既存の知識を変化させたり組み合わせたりして生まれるから、AGIはそれが超高速かつ高精度でやり続けられるだろうから科学研究で期待されてるわけだよね
人間なら10年かかる研究をAGIが1ヶ月で済ませてくれりゃもう充分ヤバいだろ 今のAIでも知識量、計算速度、思考速度、疲労無しの点じゃもう人類誰も敵わん 必要なのは推論と発想力と常識と…あとなんか
問題はAIが思考するために莫大な電気代やらコンピュータの計算や
サーバーや通信などが割かれること
1つの優秀なAIが出現する裏には、それ相応の費用がしっかりかかってる気がする
そのためにマイクロソフトは核融合発電作り始めたわけだ
てかAGIさえ出来れば消費電力抑えるやり方も提案してくれるだろう
アインシュタインの相対性理論も思考実験から生まれた
AGIはそれを超高速で行える
これからの時代はアインシュタイン級の科学的発見が次々と起こるということだ
Exclusive: OpenAI researchers warned board of AI breakthrough ahead of CEO ouster, sources say
<ロイター> OpenAIの研究者、CEO退任前にAI躍進を警告していたと情報筋が語る
「Q*」(キュースター)という名前のモデルがどうもAGIとして誕生したのではと言われてるね
https://www.reuters.com/technology/sam-altmans-ouster-openai-was-precipitated-by-letter-board-about-ai-breakthrough-2023-11-22/
URL貼り忘れた。Q*がモデル名なのか技術名なのかまだはっきりしないけど、結構ガチ目の情報ぽい。
情報筋w
ここ数日のアルトマン解任騒動のせいでまたこういう陰謀論が大量に出てくると思うと辟易するわ
ちゃんと記事読んだ?
>>412
AGI研究において画期的になりうるという見方が研究者の中で一部あるという話だからAGIまではいかないかな
ホリエモンがopenAIはもうプロトタイプのAGIは完成しているだろうとは言ってたが
まさかもう調整段階に入ったとはな
2024~2025に意識のないゾンビAGI初期型の発売になろうとはな…
一般人たる俺らはどう身を張ればいいの?
とりあえず各職場に影響が及んでくるのもあと5年くらいありそうだから
一生懸命稼いで浮いた金は信用出来そうなAI企業に投資が最適解?
あとはAIがどう進化してるか日々勉強して身の振り方を微調整かな
結局AIそのものがリリースされて何ができて何ができないのかハッキリさせないと使いようもないからな
まあその時までなるべく健康かつ金貯めとくくらいじゃね
OpenAIの新たなAI、Qスターは論理数学知能でブレークスルーがあったようだ
言語知能は既に獲得しており、そこに論理数学知能が備われば科学的研究も可能になる
これはもはやAGIだろう
>>413
情報を有難う。
なにやら爆発的進歩の直前といった感があるな。
自己改良できるシードAIが出てこないと本当に驚かないよ
>>391
マスクがニューラリンク創設した経緯は、AIにイニシアチブを取られないように人間とAIを融合するというもの
彼の言うことは一理あるし、彼は性格的に嘘つけないからマジで言ってんだと思う→AI脅威論
>>392
オッペンハイマーの後悔とか歴史の教科書に載せて義務教育から叩き込むレベル
AGI来た時のためにデトロイトビカムヒューマンの動画見ている
>>406
取締役会にラリー・サマーズ入ってんの流石に草
本業の経済学では長期停滞論の現実主義者なんだがw
ブッ飛んだ人選だな。誰が推薦したんだ?
>>426
クロエかわいいよクロエ
技術革新とかで生産力自体が上がってるのに
なんでいつまでもフルタイムで働かないといけないのか考えたんだけど
それは今の基準で暮らそうとしてるから
例えば100年前の大正時代は今より技術も生産力も低かったけど
庶民の暮らしは結構貧しかった
電気も使ってない家が多いから夜はすぐ寝るし
風呂も毎日入るとは限らない
ネットはもちろん電話すらあるにはあるけど使ってる人が少なかった
自動車に乗れるなど上級国民、写真も上級国民限定
飯にしても、洋食もあったけど基本ご飯と味噌汁の和食
住んでる家は大正時代に作られた家はあまり残ってないけど
かなり不便で水洗便所すら無かった
この暮らしを再現するなら月に10万も生活費がかからないはず
日本人の生活の基準って携帯とネット以外はバブル期のものが基準になってるんじゃないかな
>>427
サマーズのじいさん、AI規制派でなくて一安心
https://fortune.com/2023/11/22/larry-summers-named-board-openai-sam-altman-return-ceo-ai/amp/
>労働市場に変化が起こる可能性があるにもかかわらず、サマーズ氏は決してラッダイトでもテクノロジーの破滅者でもありません。
>>428
すでに第二次大戦中にシュンペーターがそれを指摘してた
>>429
底辺は変わらないが富裕層はあきらかに羽振りが悪くなった
カネもっててもユニクロ、業務スーパー、ダイソーで消費して経済回さない
一億総貧困化が進んだ
35歳の中流階級だけど生活には満足してる
40〜45歳くらいになる頃にAGIができてくれるのが理想だな
ソノ頃には人生消化試合に入ってて万が一世界に破滅してもいっかって感じ
今はまだこのままでお願いしたい
secular stagnation(長期停滞論)
常態化した景気停滞のこと。
元アメリカ財務長官のローレンス・サマーズが2013年秋にIMF(国際通貨基金)の会合で提起した概念と言われている。
先進国では今後、少子高齢化などで需要の伸びが止まるため、いわゆる「マイルドな不況」と高い失業率が常態化し、高成長や完全雇用はバブルの時期だけに見られる例外的な現象になるという。
低成長、低金利、低投資が目を引き、中でも注目されるのは「マイナス金利」だった。
サマーズは、マイナスの実質金利は本来実物投資を増加させる効果を持つはずなのに、設備投資が盛り上がらない。
その背景には米国の長期的投資機会の枯渇があるのではないか?と指摘した。
また、サマーズは金融政策だけでは対処できないとし、財政出動が必要だと主張した。
サマーズ氏は時々、インフレを抑制させるためには雇用市場が崩壊し、失業率が上昇する必要があると述べている。彼は文字通り大量解雇を主張している。
https://www.thenewcivilrightsmovement.com/2023/11/larry-summers-who-called-for-unemployment-increase-to-fight-inflation-joins-openai-board/
シンギュラリティが思ったよりショボかった見たいな展開はやめてくれよ?
>>432
生活に満足する人が増えたせいで資本主義が機能しなくなってるんだよな
これが日本でデフレマインドが定着しイノベーションが停滞してきた根本原因
最近の物価上昇はデマンドプルじゃないし今後定着しないと思う
さらにAGIができると賃金の下方圧力が働いてデフレが強まるし、労働集約的な日本経済にいいことないわ
今ですらプラットフォーマー介して世界中からカネを集めてるアメリカ一人勝ちが続く未来しか見えない
気体や液体、固体などに続く物質の「第5の状態」 2種類の原子で生成──ISSで成功
2023.11.20
https://uchubiz.com/article/new32563/
最強級の宇宙線「アマテラス粒子」を観測 未知の天体・現象由来か
https://mainichi.jp/articles/20231123/k00/00m/040/107000c
>一つの粒子で244エクサ電子ボルト
汎用人工知能(AGI)とは結局何か? ディープマインドが定義を提案
https://www.technologyreview.jp/s/322278/google-deepmind-wants-to-define-what-counts-as-artificial-general-intelligence/
>AGIという用語を軽率に使っている人が多すぎ
>議論の混乱を解消する論文を発表
>>434
「いつ」「ショボかった」と判断するのかって大事じゃない。2045年にもなってまだスマホが主流だったりしたら
それはガッカリシンギュラリティだけど、指標のひとつの29年で「イマイチ」と思っててもその翌年には大進化
する可能性があるわけで。(現在の生成AIみたく)
>>436
MITの記事、AGIは必ずしも自律的である必要はないって意見面白い
AIの能力を広さと深さで判定するのか。なるほどなあ
考えてみれば、たいていの仕事や日常生活なんて広く浅くできれば十分だしな
達人である必要はないよね。バイトレベルで十分
中国当局、ゲーム配信大手「闘魚」のCEOを拘束
https://www.cnn.co.jp/tech/35211869.html
住友ゴムの「アクティブトレッド」技術が変えるタイヤの未来
ついに冬と夏で交換不要な時代に
https://www.webcg.net/articles/-/49267
>大規模言語モデルが何十もの高校の試験に合格することなどが本当に意味することについて、論争を繰り広げている。
>それは知性の表れなのか? それとも丸暗記の一種なのか?
>AGIは自律性を示唆するものではないとも指摘
>AGIには汎用性と高性能の両方が必要
動画生成AIの時代が来てしまいました。テキストから動画が作れる「Stable Video Diffusion」公開
https://ascii.jp/elem/000/004/170/4170834/
>>424
確かにイーロンマスクは思ったことをそのまま言ってしまう傾向にあるよな。
後考えも結構ころころ変わるから支離滅裂にみられることもある。以前はかなりの環境左翼だったけど考えを変えてトランプ支持になったりとだいぶ考え方が変化してるんだよな。
ただ彼はAIが脅威だからと言って単に出る杭を打つのではなく、人間をそのAIに負けないくらい進化させようという前向きな考えなんだよな。前者では停滞を産むだけだが後者は競い合って進化を促せる。
世間に多くいる脅威派は大体前者だから
イーロンマスクは他の脅威派とはまた違うとも言える。
考えてみると人間もAIに負けないように進化させるという考え自体は別に悪くないもんな。
>>442
実は、シンギュラリティの一丁目一番地の争点ってそこにある
ホモ・サピエンスのままでいるか、非人間的存在に進化するべきか
このままだとAIに生殺与奪を握られてしまうとマスクは考えた
シンギュラリティは回避不能であり、人類はいずれ劣勢に置かれる
そこで、AIと人類の融合を企てたわけだ
攻殻機動隊で人形使いと合体した草薙素子のように
https://gigazine.net/news/20170328-neuralink/
>やがて人間の能力を超えてくるであろうAIの能力に立ち向かうためには、人間は希望者ベースでAIを脳に組み込むことでその能力をブーストアップしてコンピューターに立ち向かう必要があるというのがマスク氏の持論であり、今回のNeuralinkはその技術を実現するために設立された
"人間"って言葉が差別用語になる時代がそこまで来てるんだよ
Q学習(Q-learning)https://w.wiki/6J6T
A*(A-star、エースター)探索アルゴリズム https://w.wiki/7Uk5
Q連続体(Q Continuum)https://w.wiki/47pv
イーロン・マスクは一人ではない
https://chuokoron.jp/science/123709.html
このTESCREALの信奉者たちも本音ではイーロン・マスクは好きではないと思う
イーロン・マスクがヘンリー8世だとしたらトマス・モア(ユートピアの著者)は誰だ?と考えたんだが、一番近いのはマックス・テグマークかな
避難所とは思えないほどの基地外の跋扈ぶり…
まともな人はredditの特異点板に行ったんだろう あそこは会話の成立する人しかいないから
日本がアメリカ中国のAI開発競争から完全に置いてかれてるように日本語でまともに語れる場所もないのさ
コンピューターウイルスの歴史とサイバー犯罪が向かう先
https://www.kaspersky.co.jp/resource-center/threats/a-brief-history-of-computer-viruses-and-what-the-future-holds
> 「コンピューターウイルス」の発想は、1940年代後半、数学者のJohn von Neumannが講義の中で初めて取り上げ、1966年には論文Theory of Self-Reproducing Automata(英語記事:自己増殖オートマトンの理論)としても発表されました。
一般人がこの脅威を認識したのはBlasterワームとかが流行った頃で21世紀に入ってからだが、研究者はその半世紀も前に分かってたんだな
日本のネットの悪い所は専門系の話題を取り扱えるまともな掲示板が無いこと
>>445
補足
TESCREALは、リンク先4ページ目にもあるようにTimnit Gebruの造語
彼女は“確率的オウム”の論文でGoogleを解雇された人で…以下Wikipediaより引用。(上手く翻訳できなかったので英語のまま)
Gebru has used the acronym TESCREAL to criticize what she sees as a group of overlapping futurist philosophies: Transhumanism, Extropianism, Singularitarianism, Cosmism, Rationalism, Effective Altruism, and Longtermism. She considers this to be a right-leaning influence in Big Tech and compares proponents to "the eugenicists of the 20th century" in their production of harmful projects they portray as "benefiting humanity".
彼女は“アシロマの原則”にも署名してないな
これにはヤン・ルカンやレイ・カーツワイル、松尾豊氏の名前もあるのに
それとBingに歴史上の“ダブスタクソ親父”を探してもらったら最初に名前があがったのがヘンリー8世だった
https://imgur.com/ghdYJIw.jpeg
以下、https://w.wiki/4Cwu より引用
“絶頂期においては、魅力的で教養があり老練な王だと同時代人から見られ、ブリテンの王位についた人物の中で最もカリスマ性のあった統治者であると描かれている。(中略)晩年には好色、利己的、無慈悲かつ不安定な王であったとされている。”
ヘンリー8世とトマス・モアの話は、わが命つきるとも(1966年公開)っていう映画にもなってるが…まぁ面白くはないなたぶん
ちなみに映画ドラえもんで出木杉くんがトマス・モアの“ユートピア”を読んでたらしいが…あれを小学生が読むかすげえな
TESCREALって初めて知ったわ
トランスヒューマニズムやシンギュラリタリアニズムなどを総称して言う言葉なんだね
TESCREAL
https://hpluspedia.org/wiki/TESCREAL
>TESCREAL は、伝統的および現代のトランスヒューマニストに沿った考えを横断する信念体系を表す頭字語です。
Transhumanism トランスヒューマニズム
Extropianism エクストロピア主義
Singularitarianism シンギュラリタリアン主義
Cosmism 宇宙主義
Rationalism 合理主義
Effective Altruism 効果的利他主義
Longtermism 長期主義
>>445 の記事から引用↓
>これらのいくつかは、最近では日本でも比較的馴染みがある概念かもしれない。
>例えばトランスヒューマニズムは近年よく聞かれる言葉だが、これは、技術によって人間を進化させるべきであるという思想であり、バイオテクノロジーによって人間をミートスーツ、つまりは生身の肉体の限界から解き放つことを目指す。
>逆にエクストロピアニズムはあまり知名度がないかもしれないが、科学技術によって人類の寿命を延ばし不老不死を実現することで、それを前提とした新たな倫理や社会像を打ち出すことを目指す思想である。
>一方シンギュラリタリアニズムは、AIを始めとした技術進歩を加速してシンギュラリティ(技術的特異点)に達し、人類を遥かに超える超知能を生み出し、この社会を大きく変革することを目指す思想である。
なるほど、トランスヒューマニズムとシンギュラリタリアニズムは似て非なる思想にあるわけね
どおりで話し噛み合わない低IQが混在している違和感があったわけだ
テクノロジーの指数関数的発展という同じ方向を向いていても、その先に見ている世界が違うんだな
このスレの住民は主に以下の思想をバックグラウンドとしている
・シンギュラリティやプレシン、BIを望む人→シンギュラリタリアニスト
・「肉体」の不老不死を目指す人→エクストロピアニスト
・肉体の脳なんてオワコンだからとっととAIと融合しようぜ(イーロン・マスク)→トランスヒューマニスト
各々見ている世界が違うし、これらの思想・観念が混淆している
純粋なAI理系技術オタクだったり、プレシン&BIだけ希望してる底辺層は
トランスヒューマニズムには興味もなければ想像力もないゆえに
議論の射程を理解することすらできてないってことか
訂正
×シンギュラリタリアニスト 〇シンギュラタリアン
×エクストロピアニスト 〇エクストロピアン
肉体の強化には興味ない
病気を治すことができればそれでいい
また、科学基礎そのものの進歩や技術の限界が見たいだけで
別に眼を4つにしたいとは思わないし、必要以上に脳を拡張したいとも思わない
「ありのままではなく、あるべき自分を目指しなさい」
これは強制されるものではない
あと、AGIと複数の人間が融合して、それを発端に恐ろしい戦争が起きるならそれは回避したい
できるなら一つの(善良な)ASIが進化してもらって、そいつに全てを管理してもらいたい
https://www.reddit.com/r/singularity/comments/11gh8pj/agi_is_not_scary_people_are_and_other_thoughts/
>私はAGIを恐れているわけではありません。彼ら(個人や政府)がAGIを何に使用するかが怖いのです
スマートフォン版
掲示板管理者へ連絡
無料レンタル掲示板