原標題:人類的終結者到底是誰?這是霍金留下的答案
霍金走了。
昨天剛收到這個消息的時候還以為是假新聞,畢竟這樣的新聞幾年前就出現了。但緊接著,接二連三的報道開始出現、朋友圈被刷屏、「霍金去世」也登上熱搜,我不得不信了。
百度百科「霍金」詞條變成黑白色
可能很多朋友和筆者一樣,對霍金的認識是從《時間簡史》開始的,當年還小,很多都看不懂,隻是對我們永遠到不了的黑洞充滿好奇。後來,看了《萬物理論》,對霍金的生平有了更直觀的認識。疾病桎梏了他的身體,但他的大腦早已擺脫了地球引力。
斯蒂芬·霍金——宇宙之王
其實,霍金不光關注宇宙,對於科技會給人類帶來哪些無法想像的「毀滅」,他也曾給出我們忠告。今天,筆者要給大家扒一扒霍金曾預言的人類終結的四種方式。
1.地球將變成一個巨大的火球
霍金表示,由於全球氣候變暖,地球終將變得像金星一樣炙熱,地球溫度高達250℃,硫酸雨也將從天而降。
地球將變成火球
他曾對記者說:「到了2600年,世界人口密度將達到空前,電力的消耗將使地球變成一個『火球』。」而人類躲避此劫的唯一辦法就是乘坐光速機器「逃離地球」。
這也讓我想起了前段時間的一個新聞:北極出現史上最高溫2℃,比往年高30℃。全球變暖是個老生常談的問題,如果這一情形得不到改善,冰川必將融化、海平麵隨之上升、海島和沿海城市將被淹沒、人類的居住地變得越來越少,之後會發生什麼我不敢再往下想……
2.AI崛起毀滅人類
這兩年,人工智能風頭正盛,穀歌、百度、臉書都在花重金開發人工智能,但霍金卻不買賬。他曾在多種場合表示了自己對AI的擔心,他認為「AI可能是人類文明歷史中最糟糕的發明」、「我擔心AI終將取代人類」。
AI或將終結人類?
霍金表示:「如果人類能夠寫出電腦病毒,那麼也能夠設計出能夠自我複製的AI,而作為新物種,這種AI將會超越人類。」
其實,提醒我們要小心AI的人不止霍金一個,處在風口浪尖的馬斯克也有同樣的顧慮。AI是否將毀滅人類或許我們不得而知,但我們還是應該抱著一顆敬畏的心合理開發AI。
3.核武器的濫用將人類終結
當被問到最想改變人類的哪一特性時,霍金給出的答案是「侵略」,因為這會導致「不理智的行為」,比如說發動核戰爭終結世界。
核戰爭是我們最不想看到的
在慶祝自己75歲生日時,霍金接受了BBC採訪,他說:「現在沒有任何跡象表明衝突在減少,而軍事技術和大規模破壞性武器的發展將使衝突愈演愈烈。」那我們該怎麼辦呢?
霍金的答案是:去宇宙建立各自的殖民地吧!
4.人口過密無處移民導致人類終結
如果我們找不到適宜人類居住的其他星球,全球變暖、人口過密、流行病、戰爭等終將導致人類的滅絕,而我們能做的就是窮極科技所能「逃離地球」。
埃隆·馬斯克正為人類飛往火星而努力
其實,與霍金持類似觀點還有馬斯克。如果說霍金是思考者,那麼馬斯克就是行動者。馬斯克已經開始為人類「逃離地球」想辦法。上個月發射的搭載特斯拉的「重型獵鷹」火箭隻是個開始。
馬斯克計劃2025年將人類送上火星、到2033年建立永久基地,如果這些都能實現,人類或許能逃過一劫。
人類的終結者,你認為是誰呢?
本文來源:http://tech.ifeng.com/a/20180315/44907549_0.shtml