整理 | 呂夢 都保杰 馬麗
今日,英國著名物理學家斯蒂芬·霍金去世,享年76歲。霍金家人聲明:他的勇氣與堅持鼓舞了全世界。
霍金生前曾患上肌肉萎縮性側索硬化癥,全身癱瘓,不能言語。霍金的孩子致《衛(wèi)報》的聲明中寫道,“他的勇氣、堅持以及他的杰出及幽默鼓舞了世界各地的人”。聲明中寫道,“我們將永遠懷念他”。
霍金是英國著名的天文物理學家和宇宙學家,21歲時就患上了盧伽雷式癥。絕大多數(shù)中國人是在讀了霍金寫的科普著作《時間簡史》后,才知道他的。
世界級頂尖雜志《天文學》對他有這樣的評價:“當20世紀物理學的成就被客觀地承認時,史蒂芬·霍金的成就將被大書特書地載入科學史冊?!?/p>
霍金的成就就像他研究的黑洞一樣強力,令人傾倒。但是他卻幾次與“諾貝爾”失之交臂。
霍金的成就可以概括為:
第一,奇性定理。愛因斯坦創(chuàng)立的廣義相對論被科學界公認為最美麗的科學理論。但是霍金和彭羅斯一道證明了廣義相對論是不完備的。
他們指出,如果廣義相對論是普遍有效的,而宇宙間的物質分布滿足非常一般的條件,那么宇宙時空中一定存在一些奇點。在奇點處經(jīng)典物理的定律失效。人們通常談論的奇點是宇宙產(chǎn)生元初的大爆炸奇點和黑洞中的奇點。愛因斯坦早先否認過奇點的存在,他甚至還寫過論文以論證黑洞(那時還沒有這個生動的稱呼)的不可能性?;艚鸷团砹_斯的奇性定理表明了對引力的量子化是不可避免的。
第二,黑洞理論。人們知道,在經(jīng)典引力論的框架里,黑洞只能吞噬物質,而不能吐出物質。黑洞的表面(視界)猶如地獄的入口,是一個有去無返的單向膜?;艚鹪?jīng)證明視界的面積是非減的。1974年霍金發(fā)表了《黑洞在bao'zha爆炸》一文。
這是20世紀引力物理在愛因斯坦之后的最偉大論文。在論文中,他把量子理論效應引進了黑洞研究,證明了從黑洞視界附近會蒸發(fā)出各種粒子,這種粒子的譜猶如來自黑體的輻射。
隨之黑洞質量降低,溫度就會升高,最終導致黑洞的爆炸。在這被稱為霍金輻射的場景中,量子理論、引力理論和統(tǒng)計物理得到了完美的統(tǒng)一。黑洞理論是科學史上非常罕見的例子,它首先在數(shù)學形式上被詳盡的研究,后來才在天文學的許多觀測上證實了它的普遍存在。現(xiàn)在,人們的共識是,每個星系的中心都是一顆極其巨大的黑洞。
第三,無邊界宇宙理論?;艚鹪?0年代初,創(chuàng)立了量子宇宙學的無邊界學說。他認為,時空是有限而無界的,宇宙不但是自洽的,而且是自足的,它不需要上帝在宇宙初始時的第一推動。宇宙的演化甚至創(chuàng)生都單獨地由物理定律所決定。
這樣就把上帝從宇宙的事物中完全摒除出去。上帝便成了無所事事的“造物主”,它再也無力去創(chuàng)造奇跡。亞里士多德、奧古斯丁、牛頓等人曾在宇宙中為上帝杜撰的那個關于“第一推動”的神話,完全是虛幻的。
量子宇宙學的主要預言之一是關于宇宙結構的起源。若干年前,宇宙背景輻射探測者對太空背景溫度起伏的觀察證實了這個預言。
對于奇性定理、黑洞面積定理、黑洞霍金輻射和無邊界宇宙理論,一個人生前擁有其中的任何一項成就,就足以名垂不朽。而霍金卻擁有了這些理論的全部。
對于人工智能,霍金曾表示,AI的崛起可能是人類文明的終結,除非我們學會如何避免危險。
“我曾經(jīng)說過,人工智能的全方位發(fā)展可能招致人類的滅亡,比如最大化使用智能性自主武器。除非,人工智能系統(tǒng)需要按照人類的意志工作”。
“我認為人工智能的發(fā)展,本身是一種存在著問題的趨勢,而這些問題必須在現(xiàn)在和將來得到解決。當下還無法判斷人工智能的崛起對人類來說到時是好事還是壞事,但我們應該竭盡所能,確保其未來發(fā)展對我們和我們的環(huán)境有利”。
霍金表示,人工智能的研究與開發(fā)正在迅速推進。也許我們所有人都應該暫停片刻,把我們的研究重復從提升人工智能能力轉移到最大化人工智能的社會效益上面。
人類未來是否會被人工智能代替?霍金表示,人類無法知道我們將無限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。我們擔心聰明的機器將能夠代替人類正在從事的工作,并迅速地消滅數(shù)以百萬計的工作崗位。
在2017年全球移動互聯(lián)網(wǎng)大會(GMIC)上,他曾通過視頻發(fā)表了《讓人工智能造福人類及其賴以生存的家園》主題演講。
這已經(jīng)不是霍金第一次提出“人工智能威脅論”。2017年3月,霍金向英國《獨立報》表示,人類必須建立有效機制盡早識別威脅所在,防止新科技(人工智能)對人類帶來的威脅進一步上升。
霍金在會上表示,人工智能的威脅分短期和長期兩種。短期威脅包括自動駕駛、智能性自主武器,以及隱私問題;長期擔憂主要是人工智能系統(tǒng)失控帶來的風險,如人工智能系統(tǒng)可能不聽人類指揮。
他還認為,生物大腦和計算機在本質上是沒有區(qū)別的。這與英國物理學家羅杰·彭羅斯的觀點恰恰相反,后者認為作為一種算法確定性的系統(tǒng),當前的電子計算機無法產(chǎn)生智能。
不過,霍金也表示,雖然他對人工智能有各種擔憂,但他對人工智能技術本身還是抱有樂觀的態(tài)度。他認為人工智能帶來的收益是巨大的,人類或許借助這一強大的工具,可以減少工業(yè)化對自然的傷害。“但我們不確定我們是會被智能無限地幫助,還是被無限地邊緣化,甚至毀滅。”他補充道。
霍金在演講的最后說道:“這是一個美麗但充滿不確定的世界,而你們是先行者?!?/p>
讓我們共同緬懷這位人類歷史上偉大的科學家!
聯(lián)系客服