據BBC報導,英國著名科學家霍金日前在他的黑洞研究作學術報告後再次向人們發出警告,霍金稱,人類一手造成的一系列東西可能給自身的生存帶來威脅。而核戰爭、全球變暖、轉基因病毒等,是霍金認為最可能的威脅。
他表示,正是科學和技術的不斷進步,創造了「新的出錯的可能」。
霍金還說,儘管按年度算,地球發生毀滅性災難的可能性很小,但小的危險會積累起來,在今後數千年或數萬年間會變成一個幾乎可以肯定的現實。
但是,霍金也同時表示,到了那個時候,人類可能已經有能力移居到其它星球上,所以地球上的災難不一定意味著人類的終結。
霍金警告說,在今後數百年間,人類還沒有在其它星球建立自給自足的殖民地的能力,所以人類還是要特別小心。
之所以說這是霍金的「再次警告」,是由於此前,霍金還對人工智慧對人類自身的潛在威脅發出過警告:
「人工智慧可能是一個『真正的危險』。機器人可能會找到改進自己的辦法,而這些改進並不總是會造福人類。」
「儘管人工智慧的短期影響取決於控制它的人,但長期影響卻取決於它究竟能否被控制。」
在人工智慧上和霍金持有相似觀點的還有特斯拉、Space X CEO 伊隆·馬斯克和微軟創辦人比爾·蓋茲,馬斯克曾在其個人社交網站上發表言論稱:人工智慧的潛在威脅大於核武器。
去年1月,馬斯克和霍金一起簽署了一封由未來生命研究所發出的公開信,承諾人工智慧領域的進步不會脫離人類的控制。去年7月,他們簽署了另外一份公開信,呼籲禁止開發自動化武器。未來生命研究所正在研究的課題包括該如何降低人工智慧武器的潛在風險等。
也正是由於霍金和馬斯克在人工智慧方面流露出的悲觀情緒,IT與創新基金會將2015年度「盧德獎」,即「阻礙科技創新獎」頒給了他們。IT和創新基金會表示,問題不在於馬斯克等人表達的觀點,而在於他們表達觀點的方式。「提醒人們以安全負責的態度開發人工智慧技術並無不妥。問題在於,他們的口吻讓很多人感到害怕。」
但兩位當事人並沒有對這個獎項做出任何回應,可能在他們眼中,他們所擔憂的要比這個獎嚴肅得多。
本文授權轉載自:虎嗅網