ホーキング博士「100年以内に人類は滅びる」に同感

宇宙物理学者、スティーブン・ホーキング博士が、「100年以内に人類は滅びる」と予言している。これには僕もかなり同感している。もちろんこの予想が外れることを願うのは言うまでもないが。

ホーキング博士が予想する絶滅の原因は、「人工ウィルス、軍拡競争、核戦争、地球温暖化、加速器を使った素粒子の実験」だ。核戦争などはほとんどの人が容易に推測できるが、人口ウィルスとは僕も全く予想できなかった。

この原因予想で物理学者らしいのは「加速器実験」だ。これは数年前にも世界的に話題になった。その時の結論から言うと、加速器が原因で絶滅することはないというものだが、確信は持てない。

なぜ加速器なのか?加速器というのは電子などの素粒子同士を高速(ほぼ光の速さ)で衝突させ、その崩壊の過程を観測するものだ。この加速器のエネルギーは年々高くなり、将来は加速器でブラックホールが作れるとも言われている。数年前に問題になったのは、この瞬間的にできたブラックホールが地球もろとも飲み込んでしまうのではないかというものである。果たしてそうなるのか?

実は現在の理論ではこの問いに厳密に答えを出せない。ブラックホール理論の基礎になっているのは、アインシュタインの一般相対性理論だ。しかしこの一般相対性理論はマクロな世界の理論であり、これをミクロの世界に適用するためには「量子重力理論」すなわちミクロな一般相対性理論が必要なのである。しかし現在、量子重力理論は完成していない。ついでに言うと、現在多くの物理学者が目指しているような量子重力理論が存在するかどうかも確かではない。量子重力理論が完成していない限り、加速器でできるブラックホールがどのような振る舞いをするか、正確には結論は出せない。

話を戻すが、僕は現在の人類文明は絶滅への要素をあまりにも多く持ち合わせていると考えている。ホキング博士が挙げている原因以外にも、人工知能がかなり危ないのではないかと僕は考えている。これは簡単に言うと、映画「ターミネーター」の世界である。多くの人は所詮映画の中の世界ではないかと思っているかもしれないが、現在の人工知能の発展はまさしくターミネーターの世界へまっしぐらなのである。そのXデーはいつか?それは人工知能が自分自身で学習していき、人間の知能を超えた時である。その後のことはどうなるか予測不可能である。しかし、人類は絶滅するということは僕には確かに思えるのである。

コメントを残す

メールアドレスが公開されることはありません。

CAPTCHA