Loading AI tools
人類が全て死に絶えること ウィキペディアから
本項では未来学における人類の絶滅に関する諸仮説と、それに対して提示されている考察や対応策について述べる。「絶滅」の原因として考えられているものは、自然現象によるものと、人類自身の活動の結果によるものの二つに分けられる。自然現象としては隕石衝突やスーパーボルケーノによるものなどが考えられるが、これらが発生して人類が滅亡に追い込まれる事態が起きる確率は極めて低いと考えられている[1]。
人為的なものとしては、核によるホロコーストや生物兵器戦争、パンデミック、人口過多[2]、生態系の崩壊、気候変動、汎用人工知能の暴走などの仮説シナリオが提唱されている。こうした理由によって例えば百年以内に人類が滅亡する、というような議論は長年にわたり活発に行われている。
規制なく野放図に科学の発展を続けていくと、人間の制御できない新技術が生まれてしまい、結果として人間を滅ぼすことになる恐れがあると言われている。
現在の人類はホモ・サピエンスのみ生存し、他に生存していた人類は全てホモ・サピエンスとの競争に敗れ絶滅したが、将来これと同様のことが起こり、ホモ・サピエンスから進化した新人類によってホモ・サピエンスが滅ぼされるというもの。あるいは人類が現代の感覚ではとても人類とは言えない生物に進化し、生存競争で人類を滅ぼすというシナリオ。
チャールズ・ダーウィンの進化論を延長したものである。人類の進化は現在も続いている以上[27][28]、その中から将来的に新たな生物種が誕生する可能性は当然存在する。
そのため、短期的な絶滅シナリオを人類が全て回避した場合、このシナリオによって遠い将来の別種に進化し人類を淘汰した子孫たちが、「(祖先であった)人類は絶滅した」と判断する可能性がある。
ただし漸進的な変化そのものは種の絶滅にはあたらない。確かに1万年前の人類と現在の人類でも遺伝子に差異を生じているように[27]、現在の人類と遠い未来の人類は遺伝子に差異を生じている可能性が高い。しかし、1万年前の人類と現在の人類で同じホモ・サピエンスであるとみなされているように、それだけでは系統学的に別種となったとは見なされない。時間がたつにつれて人類の遺伝子も変化し続けるが、これが自然環境下で完全に2つの種に分裂してしまうようなことは起こりがたい。
一方で、人類が遺伝子工学などにより人為的に「一般的な人間」とは異なる人間(ポストヒューマン)を作り出す可能性がある[29][30][31][32][33][34][35]。例えば人間と機器を融合した「人間」が生み出される場合が考えられているが、このような種の「進化」は地球の歴史上前例がない[36][37]。ポストヒューマンの登場によって、「古い」人類が滅ぼされる危険性も主張されている。
上記とは逆に、人間は進化の極致に達しており、今後は適者生存の原理が通用しなくなるという説がある[38]。これは特に19世紀に盛んに論じられ、今までに人類が誕生して進化してきたのとは逆に、今後は人類が退化していき滅亡に至るという可能性が提起された。
人類の絶滅に関する研究は、その重要性のわりに進んでいない。ニック・ボストロムは、2001年に「フンバエの絶滅リスクに関する学術研究の方が(人間と比べ)よほど多い。」と述べている[39]。
Ken Olum、ジョシュア・ノブ、アレキサンダー・ビレンキンらは、絶滅リスクは健康リスクなどと違い個人でどうにもし難いものだが、それでもそれを考えるのには実用的価値があると主張している。例えば、もし「世界終末論(Doomsday argument)」が広く世界に受け入れられたならば、その終末リスクを低減しようという大きな動機となるはずであるという。彼らは「特定の天体一つ一つに関心を傾ける以上に、まだ発見されていない大部分の天体に目を向けるべきだ。近くの星のどれかが超新星になる危険性をわざわざ恐れることはないが、我々が思っている以上に超新星が周辺の生命に致命的影響を与えるものであることは憂慮しておくべきだ。」と述べている[40]。
「人類の滅亡」という事件には前例がないため、それが起きる可能性を計算するには多分に主観的にならざるを得ない。ニック・ボストロムは、人類絶滅の確率を25パーセントより少ないと設定することは見当違いであり、人類が「初めての事態にして、我々の警告を効果的かつ正しく受け入れる」ことは「無理な相談」であるとしている。というのも、人類絶滅確率を提示したところで、我々が失敗から学ぶことはできないからだという[1][41]。より楽観的な推測としては、哲学者のジョン・レスリーが、500年後に人類が存続している可能性は70パーセントという予想を出している。これは彼自身が与している、議論の的となっている哲学的な世界終末論に拠っている。2006年にイギリスで発表されたスターン報告では、経済的な計算から、100年以内に人類が滅亡する確率を10パーセントとしている[41]。
世界規模の核戦争などでは、すべての人類が殺される真の意味での絶滅は起こりづらいと考える学者もいる。 物理学者のウィラード・ウェルズは、本当に人類を絶滅させるシナリオというものは、大都市の地下鉄やチベットの高地、南太平洋の隔絶された島々、さらには長期間の孤立を耐える計画と物資を有している南極のマクマード基地に至るまで、すべての地域に住む人間を対象としなければならない点を指摘している[42]。加えて、核戦争に備え政府要人が退避するための核シェルターもすでに地上に多く存在している[41]。人類の数を激減させる方法はいくつも存在するが、いずれにおいても最小存続可能個体数を上回る人類が生存する可能性が高い。それゆえ、人類滅亡の確率を計算するのはあまり意味がない[43]、とする説もある。
AI学者エリーザー・ユドコウスキーは、一般大衆が存続リスクについて知らされた場合には、規模不感受効果が悪い影響をもたらすと指摘している[1][44]。
例えば「5億人の死」というような莫大な数と、「人類の絶滅」というような特異なシナリオは、それぞれ人の思考法を変えてしまうきっかけとなりうるように思える...子どもが悲惨な目に合うと夢にも思わないような人間は、存続リスクについて聞いたら「なるほど、確かに人類は生き残る価値がないようだ。」と言うのだ。
今までに行われてきた終末予言はいずれも外れた。その結果、今後新たな終末予言が提示されても嘘をつく子供のように信用されない可能性が高い。しかしニック・ボストロムは、今まで人類が滅亡しなかったからと言って今後もそのようなことは起こらないと主張するのは、多分に生存者バイアスや人間原理によるものであり、信頼に足るものではないと述べている[45]。
新近性効果が絶滅リスク分析に誤った影響を与える危険性を指摘している行動経済学者もいる。これはバブル経済を想像すると理解しやすい。証券市場では、「100年に一度の大嵐」とよばれるような事態がおよそ20年ごとに起きているが、これは投資家たちが一過性の好景気を「永遠に続く」ものだと思い込み、大暴落を予言する悲観主義者を、たとえその裏に確固とした証拠があったとしても否定してしまうためである。このような前例のない破滅を軽視してしまう危険性は、ベイズ確率の考えを用いることで低減することが出来る。
オムニサイドとは、人類の活動、特に核戦争や生物戦によってもたらされる人類そのものの滅亡を指す言葉である[46][47][48]。また環境破壊による気候変動で人類が滅亡するシナリオを含む場合もある[49]。
オムニサイドは、ジェノサイド(大量虐殺)の規模を極端に広げたものだと捉えることもできる[50][51]。この考えにのっとって、以下に挙げる1987年のロナルド・E・サントーニのもののような主張もみられる。
スティーヴン・ホーキングは、太陽系内の星に広く移民することで、将来の地球規模の災害や熱核戦争による人類滅亡リスクを下げることを提唱した[52][53]。
経済学者の中には、地球上に自立して外海と隔絶された集落を建設することで、人類存続可能性を高める案を提唱している者もいる[41][42]。経済学者のロビン・ハンソンは、100人の生存者がいれば、破滅的災害の後に人類が存続できる可能性が大きく上がると述べている[41][54]。
人類の絶滅の回避を目指して活動している組織は少なくない。人類未来研究所(Future of Humanity Institute、FHI)や存続リスク研究センター(Centre for the Study of Existential Risk、CSER)、生命未来研究所(Future of Life Institute)、人工知能研究機関(Machine Intelligence Research Institute)、世界破滅リスク研究所(Global Catastrophic Risk Institute )などが挙げられる。
「存亡リスク」とは、人類が絶滅するか人間文明の発展が停止するという、人類の未来をおびやかすリスクである。多くの学者は、たとえ大きな打撃を受けても生きられるだろう未来の数えきれないほど多くの個人のことを考えると、存亡リスクの小さな引き下げであっても大きな価値を持つと主張している。主張の幾つかは以下の通りである。
何人かの哲学者たちは、人類の絶滅は悪い事にならないだろう、むしろ良い事であると断言する。
21世紀にはアラン・ワイズマンの『人類の消えた世界』をはじめ、多くの一般向け科学書で「もし突然人類が消滅したら、地球はどうなるのか」という思考実験が提示されている[55][56]。また技術的特異点を迎えることによる人類滅亡のシナリオは、20世紀以降多くのSF作品を生み出している。人類滅亡を取り上げた先駆的な作品として大きな影響を与えたのが、フィリップ・ワイリーとエドウィン・バーマーのSF小説『地球最後の日』である[57]。巨大天体が地球に衝突する滅亡シナリオを軸としたこの作品は、1957年に映画化され大きな反響を呼んだ。こうしたSF作品は結末で辛うじて破滅が回避されるのが常であるが、カレル・チャペックの戯曲『R.U.R.』や、スティーヴン・スピルバーグの映画『A.I.』のような例外もある[58]。
^ For research on this, see Psychological science volume 15 (2004): Decisions From Experience and the Effect of Rare Events in Risky Choice. The under-perception of rare events mentioned above is actually the opposite of the phenomenon originally described by Kahneman in "prospect theory" (in their original experiments the likelihood of rare events is overestimated). However, further analysis of the bias has shown that both forms occur: When judging from description people tend to overestimate the described probability, so this effect taken alone would indicate that reading the extinction scenarios described here should make the reader overestimate the likelihood of any probabilities given. However, the effect that is more relevant to common consideration of human extinction is the bias that occurs with estimates from experience, and these are in the opposite direction: When judging from personal experience people who have never heard of or experienced their species become extinct would be expected to dramatically underestimate its likelihood. Sociobiologist E. O. Wilson argued that: "The reason for this myopic fog, evolutionary biologists contend, is that it was actually advantageous during all but the last few millennia of the two million years of existence of the genus Homo... A premium was placed on close attention to the near future and early reproduction, and little else. Disasters of a magnitude that occur only once every few centuries were forgotten or transmuted into myth." (Is Humanity Suicidal? The New York Times Magazine 30 May 1993).
^ ReligiousTolerance.org says that Aum Supreme Truth is the only religion known to have planned Armageddon for non-believers. Their intention to unleash deadly viruses is covered in Our Final Hour, and by Aum watcher, Akihiko Misawa. The Gaia Liberation Front advocates (but is not known to have active plans for) total human genocide, see: GLF, A Modest Proposal. Leslie, 1996 says that Aum's collection of nuclear physicists presented a doomsday threat from nuclear destruction as well, especially as the cult included a rocket scientist.
^ Leslie (1996) discusses the survivorship bias (which he calls an "observational selection" effect on page 139) he says that the a priori certainty of observing an "undisasterous past" could make it difficult to argue that we must be safe because nothing terrible has yet occurred. He quotes Holger Bech Nielsen's formulation: "We do not even know if there should exist some extremely dangerous decay of say the proton which caused eradication of the earth, because if it happens we would no longer be there to observe it and if it does not happen there is nothing to observe." (From: Random dynamics and relations between the number of fermion generations and the fine structure constants, Acta Pysica Polonica B, May 1989).
^ For the "West Germany" extrapolation see: Leslie, 1996 (The End of the World) in the "War, Pollution, and disease" chapter (page 74). In this section the author also mentions the success (in lowering the birth rate) of programs such as the sterilization-for-rupees programs in India, and surveys other infertility or falling birth-rate extinction scenarios. He says that the voluntary small family behaviour may be counter-evolutionary, but that the meme for small, rich families appears to be spreading rapidly throughout the world. In 2150 the world population is expected to start falling.
^ Former NASA consultant David Brin's lengthy rebuttal to SETI enthusiast's optimism about alien intentions concludes: "The worst mistake of first contact, made throughout history by individuals on both sides of every new encounter, has been the unfortunate habit of making assumptions. It often proved fatal." (See full text at SETIleague.org.)
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.