(ASI)人類滅亡レベルの危機を話し合うスレ at FUTURE
[2ch|▼Menu]
1:オーバーテクナナシー
18/11/29 01:06:58.31 ejk8GNew.net
未来に関わるリスクの把握と、それを議論しましょう。
人類滅亡レベルのリスクとは・・・
地球全体規模(Global)で、人類の存続に関わる深刻なリスク(Profound)のこと。
※ニック・ボストロム氏のリスクのカテゴリーの定義を参考
人類滅亡レベルのリスクの例
・スーパーインテリジェンス(ASI)
→超知能の暴走
・グレイ・グー(Grey goo)
→ナノマシンの無限増殖
・異常気象
→限定的な地域の温暖化・寒冷化、洪水(地震もあり)
・核兵器
などなど


レスを読む
最新レス表示
スレッドの検索
類似スレ一覧
話題のニュース
おまかせリスト
▼オプションを表示
暇つぶし2ch

1707日前に更新/25 KB
担当:undef