逃離地球是人類唯一的希望!霍金再次發出警告引關注!我們面臨糟糕的環境挑戰:氣候變化、食品生產、人口過剩、物種滅絕、流行病、海洋酸化等。所有這些都在提醒我們,我們正處于人類發展史上最危險的時刻。“自動化武器將成為明天的AK-47。”機器人有可能消滅人類,在一個機器人可以替代人類完成大多數工作的新世界里,人類必須要“重新再教育”。
霍金再發警告,霍金認為地球上的生命因一場災難而滅絕的風險正與日俱增,比如一場突如其來的核戰爭、一種基因工程病毒或其它危險。
前不久,美國參議院通過了一項預算為195億美元的授權法案,該法案得到了共和、民主兩黨的共同支持,旨在支持美國宇航局火星登陸計劃,并確定25年內必須實現航天員登陸火星。
據國外媒體報道,英國著名物理學家史蒂芬-霍金近日在《衛報》再發警告性文章稱,我們目前正生活于人類歷史上最危險的時期,人口過剩、氣候變化、流行病等都是人類將要面臨的嚴重威脅。霍金表示,我們所發展的科學技術將可能毀滅我們的地球。在一個機器人可以替代人類完成大多數工作的新世界里,人類必須要“重新再教育”。
在《衛報》的一篇評論性文章中,霍金教授解釋了他對地球未來命運的擔憂。“對于我來說,最擔憂的問題是,現在比人類歷史上其它時候都要危險。我們人類必須要共同努力。我們面臨糟糕的環境挑戰:氣候變化、食品生產、人口過剩、物種滅絕、流行病、海洋酸化等。所有這些都在提醒我們,我們正處于人類發展史上最危險的時刻。我們發展的技術摧毀了我們所生活的地球,但我們還沒有發展出逃離地球的能力。也許在百年后,我們將可以在其它星球上建立起人類殖民地,但現在我們還只能呆在地球上,因此我們必須要團結一致保護它。”
這位世界著名的物理學家此前已數度向全世界發出警告,機器人有可能消滅人類。他認為,逃離地球是人類唯一的希望,人類呆在地球上的日子已屈指可數。今年9月份,霍金還曾經警告稱,因為戰爭和流行病的威脅,我們的地球正在變成一個危險之地。霍金教授表示,“我相信,地球上的生命因一場災難而滅絕的風險正與日俱增,比如一場突如其來的核戰爭、一種基因工程病毒或其它危險。我認為,如果不能進入太空,人類將沒有未來。”
在今年1月7日英國廣播公司一年一度的“里斯講座”上,霍金也曾發表過類似的言論。在與聽眾互動環節中,當被及世界將如何終結時,霍金表示,人類面臨的大多數威脅都來自科技的發展。這些威脅包括核戰爭、災難性的全球變暖以及基因工程病毒等。在講座前,霍金表示,“我們無法阻止這一進程,也無法改變其方向,但我們必須意識到這種危險,并努力控制它們。”霍金認為,為了逃離這些威脅,人類必須殖民其它星球,但至少需要一個世紀才有可能實現這一目標。“至少在未來一百年內,我們還無法在太空中建立起自給自足的殖民地。因此在這一階段里,我們必須要特別小心。”
在今年7月份,霍金教授和特斯拉創始人埃隆-馬斯克攜同全球1000多位機器人專家發表一封公開信警告稱,“自動化武器將成為明天的AK-47。”埃隆-馬斯克認為,“人類如果能夠成為一種多星球物種,而不是單一星球物種,那人類文明的生命跨度將要大得多。如果我們只是一個單一星球物種,最終必將發生一場滅絕事件。”
埃隆-馬斯克的Spacex太空探
霍金再次發出警告 機器人有可能消滅人類
發布時間: 2016-12-12 10:12:22 來源:
核心提示: “自動化武器將成為明天的AK-47。”機器人有可能消滅人類,在一個機器人可以替代人類完成大多數工作的新世界里,人類必須要“重新再教育”。
【免責聲明】所刊原創內容之本文僅代表作者本人觀點,與新戰略機器人網無關。新戰略機器人網站對文中陳述、觀點判斷保持中立。本網轉載自其它媒體的信息,轉載目的在于傳遞更多信息,并不代表本網贊同其觀點和對其真實性負責。
【版權聲明】凡本網注明“來源:xzl機器人”的所有作品,著作權屬于新戰略機器人網站所有,未經本站之同意或授權,任何人不得以任何形式重制、轉載、散布、引用、變更、播送或出版該內容之全部或局部,亦不得有其他任何違反本站著作權之行為。違反上述聲明者,本網將追究其相關法律責任。轉載、散布、引用須注明原文來源。
來源:
責任編輯: