霍金預言——未來一千年中的科學
一種可能性就是,由于某種像核戰爭這樣的災難,我們將自己徹底消滅。
把量子理論與愛因斯坦的廣義相對論統一起來,并得到一個關于宇宙的基本規律的完備理論。這種理論將在從現在開始的20年內現出。
在今后100年中,很可能我們將能夠徹底地重新設計人類的DNA。
臨近新世紀的到來,對于過去一千年的回顧和對下一個千年的展望,是許多人都會感興趣、并愿意談論的話題。但是,關于在下一個一千年中,科學會是什么樣子,也許就不是一般人都能駕馭的問題了。從1998年起,美國白宮開始組織被稱為千年晚會系列活動。其目的就是要在這些聚會上,把來自許多領域的學者、科學家和有創造性的個人召集在一起,總結過去,并想象我們的未來。
1998年3月6日,在美國華盛頓白宮東廳舉行的千年晚會上,著名的劍橋大學物理學家斯蒂芬·霍金發表了題為“想象與變革:在下一個一千年中的科學”的演講。此演講是白宮千年晚會系列的第二次活動,也是該系列中到目前為止唯一的一次關于科學的話題。
關于霍金,可謂是目前在世的科學家中知名度最高者。他的《時間簡史》一書在世界上曾被譯成33種語言,銷售量高達900萬冊,是最暢銷的科普著作之一。當然,更為重要的,是他在理論物理學和宇宙學等方面的杰出貢獻。在這次展望下一個一千年中的科學發展的演講中,面對普通的聽眾,霍金再次展示了他深刻的思想、超前的見解,以及將科學問題講得深入淺出、通俗易懂的特殊才能。他在演講中著重討論的,是在下一個一千年中,科學和技術將怎樣影響人類的活動,以及人類的活動將怎樣塑造科學和技術。
首先,在總體上,霍金認為,在現在和未來之間,必定會有巨大的變革,并伴隨著局勢的緊張和混亂,他對于是否我們將達到科學和技術的一種最終的穩態提出疑問。沒有什么跡象表明在不遠的將來科學和技術的發展將變緩和停止。雖然在過去200年中,在人口的增加和技術的發展上,呈現出一種指數型的增長,但他認為在下一個一千年中,目前的指數增長也不會繼續下去。否則,到2600年,世界上的人們將摩肩接踵,電力的消費將使地球燒得通紅。如果人們把新出版的書籍一本接一本地排列起來,需要以每小時90英里的速度移動才能跟上隊尾。當然,到2600年,新的論文和科學著作將不是以實物的書籍和論文而是以電子的形式出現。然而,如果指數的增長繼續下去,在像霍金本人所從事工作的理論物理學領域,每秒鐘將有10篇論文問世,而人們則沒有時間去讀它們。
顯然,目前的指數增長不可能無限地繼續下去。那么,將會出現什么樣的情形?霍金大膽地提出,一種可能性就是,由于某種像核戰爭這樣的災難,我們將自己徹底消滅。但另一方面,霍金又是一個樂觀主義者,認為我們仍有充分多的機會來避免世界末日的善惡大決戰和新的黑暗時期。
作為一位物理學家,霍金顯然對于作為最為基礎性的物理學理論的發展給予了優先的關注。他指出,在理論物理學中,在研究基本粒子時,當人們試圖把量子理論與愛因斯坦的廣義相對論結合起來并對之進行計算的時候,遇到了無限能量的麻煩。為了處理這種無限的能量,需要某種真正有創造性的計算方法。關鍵的概念是自然界中一種新的平衡或者說對稱,它被稱為超對稱,在
1971年由兩位俄國人最先提出的。在過去20年中,理論物理學中很大一部分工作,就是尋找一種在其中徹底消除無限的理論。只有這樣,我們才能把量子理論與愛因斯坦的廣義相對論統一起來,并得到一個關于宇宙的基本規律的完備理論。他認為有希望出現的情況是,在下一個一千年中,我們將發現這種完備的理論,而且這種理論將會是十分出色的。對于大多數將愛因斯坦的廣義相對論與量子理論統一起來的努力,超對稱是基礎。在更大的程度上,我們不得不依賴于數學的美和一致性來發現關于萬物的最終理論。無論如何,霍金確信,到21世紀末,也許可能更早些,我們就將發現這種理論。他甚至愿以一半對一半的賠率打賭,認為這種理論將在從現在開始的20年內現出。
對于未來,有一種觀點是,我們將達到一種先進但在本質上靜態的水準,霍金認為,就我們關于支配宇宙的基本規律的知識來說,這有可能成為現實。但在我們對這些定律的利用方面,他并不認為我們將達到一種穩態,最終的理論將不會給我們能夠制造的復雜系統帶來限制,并且明確的提出,在下一個一千年中最重要的發展就在這種復雜性中。
在霍金的演講中,除了理論物理學之外,他所關注的另一個重要領域是生命科學。他認為,在今后100年中,很可能我們將能夠徹底地重新設計人類的DNA。雖然許多人力主用于人類的遺傳工程應該被禁止,但霍金卻懷疑他們是否能夠阻止這種遺傳工程。他設想,出于經濟的原因,用于植物和動物的遺傳工程會得到允許,一些人必定會嘗試將其用于人類。除非我們有一種集權的世界秩序,否則在某些地方一些人就會計劃改良人類。顯然,就未被改良的人類來說,發展改良了的人類將帶來巨大的社會和政治問題。霍金并非在鼓吹人類基因工程是一件好事。他只是說,不論我們愿意與否,人類基因工程很可能在下一個一千年中出現。相應地,人類,以及人類的DNA,將很快地增加其復雜性。
在霍金看來,從某種程度上講,如果人類要應付周圍日益復雜的世界,并迎接像太空旅行這樣的新挑戰,就需要改進其精神和肉體的品質。如果生物系統要領先于電子系統,它也需要增加其復雜性。目前,計算機具有速度的優勢,但它們沒有表現出智能的跡象。這并不令人驚訝,因為我們目前的計算機的復雜性還不如蚯蚓的大腦,而蚯蚓這個物種并不因其智力而知名。但計算機遵循由英特爾公司的戈登·莫爾提出的莫爾定律。這個定律說,計算機的速度和復雜性每18個月翻一番。這是那些顯然不會無限繼續下去的指數增長中的一種。不過,它可能會繼續到計算機具有類似于人腦的復雜性的時候。有些人說,計算機不管可能會是什么樣子,都永遠不會表現出真正的智能。霍金提出,如果非常復雜的化學分子可以在人類的身上活動并使人類變得有智能,那么,同樣復雜的電子線路也可能會使計算機以一種有智能的方式來行事。如果計算機是有智能的,那么它們就有可能設計具有更高的復雜性和智能的計算機。
總之,霍金在演講中預期,不論在生物領域還是在電子領域,復雜性都迅速地增加。他所講的大部分情形在今后100年中都不會出現,而這就是我們可以有把握地預言的全部。但到下一個一千年的終了時,如果我們能到達的話,變革就將是根本性的了。
【未來】制造上帝還是制造人類終結者?
"人工大腦"之父雨果·德·加里斯的希望和焦慮
雨果被稱為"人工智能領域的霍金"。他預言,本世紀人類定會制造出像神一樣具備超級智慧的機器人,但人類可能被其消滅。在此之前,人類將因"是否制造這種人工智能機器"的爭議分裂成兩派,并展開一場世界大戰。如果預言成真,他將是21世紀最主要的思想家之一。
憂慮的"先知"
在廈門市思明區淺水灣畔一座十分普通的兩居室內,有一個人正在為人類的命運焦慮不安。
"我正在建造一個在未來幾十年內,將會成為神一樣無所不能的東西。制造神一般的生物的期望,帶給我一種宗教般敬畏的感覺,這感覺進入我的靈魂深處,強烈地激發我繼續這項工作,盡管那可怕的負面效應,可能會接踵而來。……在21世紀末,人工智能機器將會比人類聰明億億倍,并且關于物種支配問題將會引發一場重大的戰爭,并導致幾十億人的死亡。
我們是在制造上帝,還是制造我們潛在的終結者?"
這不是科幻片中的臺詞,而是雨果《智能簡史》一書中的一個段落。這個"人工大腦之父",就坐在《綠公司》記者對面,碩大的腦門、蜷曲蓬松的頭發、一雙炯炯有神的眼睛、有點奇怪的舉止使他看起來與其說是一個職業科學家,不如說更像是一個異教的先知。現在,他再一次告訴我們,他所預言的"人工智能戰爭"無法避免。
誰將成為21世紀的主導物種?
雨果告訴我們,他寫《智能簡史》這本書的目的就是,促使人們開始思考人工智能帶來的問題。作為一個人工智能科學家,他對于人工智能在本世紀的發展前景充滿信心,而對人類的未來卻表示悲觀。
在通往書房的門廊墻壁上,一張雨果在廈大舉辦講座的藍色海報分外搶眼,醒目的標語是"誰,將入侵上帝的禁區?"及"誰將成為21世紀的主導物種?",從日期上看,這是兩個月前剛剛舉辦過的一次講座。
這恰恰是雨果關心的問題。他認為隨著人工智能研究的突破性進展,圍繞上述問題將會引發人類政治沖突和戰爭。"這并不只關系到一個國家,它關系到整個人類。"
他用一種略帶夸張的莊嚴語氣告訴我們。
眼前這個不休邊幅、年過6旬的老人,在"人工大腦"
領域有近20年研究經歷。雨果1947出生于澳大利亞,23歲時取得了墨爾本大學"應用數學"和"理論物理"兩個學位后,遠赴英倫深造。在劍橋大學學習工作了四年,他發現了自己人生的目標,遂返回布魯塞爾大學攻讀人工智能和人工生命博士學位,成為一名研究員,正式涉足人工智能研究領域。1992年,雨果獲得博士后獎學金,離開歐洲來到日本進行研究,歷時8年開發出制造世界上第一個人工大腦CBM。從那一刻起,他就認識到自己的研究可能會為人類帶來一場浩劫。在2000年Discovery歐洲頻道邀請他與著名物理學家羅杰·彭羅斯爵士進行對話的節目中,他就提出這一觀點。
如今,他仍然堅持這種看法。他深信在"摩爾定律"趨勢下,隨著納米技術、量子計算等關鍵技術的發展,人類在本世紀制造出神一樣具備超級智能的"人工智能機器"已是必然。這些"人工智能機器"的智慧將會比人類智慧高出萬億個萬億倍(10的40次方)。
屆時,人類將會面臨一種風險,那就是事態終將會失控,人類的存在對于這些神一樣的"人工智能機器"將會變得無足輕重。只要這些"人工智能機器"愿意,我們隨時會像"蚊子"和"細菌"一樣被它們消滅掉。
為了更形象地說明自己的觀點,他突然用手掌拍了另外一只胳膊一下,"你知道這一下,多少細菌被消滅掉了?將來的人類也是這樣的命運。"
此時此刻,《終結者2018》正在影院上演,片中數十年來"機器人"與人類之間殘酷的戰爭,使雨果形象的比喻更加真切。
物種主導權爭議引發"人工智能戰爭"
雨果是目前唯一一個預言人工智能會引發人類大戰的人。
在 2005
出版的《智能簡史》中,他系統性地闡發了自己的觀點:從技術上講"超級人工智能機器"一定會產生,而且智慧遠勝于人類。這種人工智能機器將會與人類爭奪地球上的物種主導權。這就有一種風險,人類極有可能被這種超級人工智能機器消滅掉。因此,地球主義者為了捍衛人類的物種主導權,將會禁止科學家展開人工智能研究,以防止這種可怕的局面出現;而宇宙主義者出于自身的信仰和現實需求,將會從經濟和政治上堅持這種研究,展開激烈對抗。兩派的爭議會形成現實的政治沖突,一場戰爭不可避免。
"很多戰爭都源于人們不能達成統一的認識,比如說資本主義與社會主義之爭。今天只有幾千個科學家在討論,10年后可能就會因此形成不同的黨派。戰爭很有可能發生。"
雨果攤開手掌,用一種確信無疑的語氣說。
雨果的"預言"一旦成真,那么就像他和斯蒂芬·霍金一起參與錄制的BBC影片《地球的末日》所說的那樣,人類將迎來自己的末日。
因為按照雨果的研究圖表顯示,從19世紀拿破侖戰爭以來,人類戰爭的死亡人數是以10的幾何級數倍增的。21世紀戰爭所動用的武器,將擁有空前規模的殺傷力,死亡人數將會達到10的9次方到10次方,也就是令人沮喪的幾十億。
一個宇宙主義者的矛盾和渴望
就像半個世紀之前發現了核鏈式反應的秘密,并預言一顆核彈可以毀滅一座城市的匈牙利裔猶太科學家利奧·希拉特一樣,雨果感覺自己是孤獨的。
因為自他的觀點在主流媒體上傳播開來之際,他就不斷受到質疑。很多人不相信他所說的一切,更有人對他的研究表示質疑和憤怒。既然,明知道這樣一種研究會帶來如此令人恐懼的局面,為什么他還要進行這種危險的研究?
作為問題的制造者,雨果聳聳肩,坦然承認"這就是我的矛盾。"然而他不能放棄他所進行的研究。他認為這個領域還有許多事情可以做。他說"對于我個人來說,我很希望繼續進行人工智能研究"。在"人工智能"爭議中,他為自己選擇的立場是"宇宙主義者"。盡管他沒有任何宗教信仰,但是他和其他人工智能科學家一樣,將
"創造"當作自己的宗教。
說到這里,他起身從旁邊的書架上取出一本厚厚的天文學著作來,翻到一張宇宙圖片,指著無垠宇宙中恍若塵埃的點點星云,跟我們說,"人類就像是宇宙中的螞蟻。與其繼續做人類,我寧愿選擇去創造更高級的生物。"
人類是一定要被超越的。而創造'神一樣的人工智能機器',是超越人類的一種必由方式。在某種程度上,他相信我們的宇宙就是被一些智能機器創造的,因為我們生存的星球和宇宙都是那么的精確有規則。
這是宇宙主義者們的信仰,也是雨果堅持"人工大腦"研究的理由。
正因如此,20年來雨果在6個國家輾轉奔波,唯一沒有放棄的就是自己的觀點和堅持不懈的研究。事實上他的研究工作并非一帆風順:在日本實驗室取得初步研究成果之后,受到排擠,被迫離開。在布魯塞爾的私立實驗室中投資10萬美元,隨著實驗室解體,血本無歸。9.11之后只身來到美國,卻受困于經費不足,無法展開"人工大腦"制造。
然而,這期間他先后制造出4臺人工大腦。毫無爭議的成為"人工大腦"之父。
人類命運的終極追問
和著名的人工智能科學家雷·庫茲威爾一樣,雨果相信他的研究會使生活更美好,而這也是技術存在的意義。庫茲威爾也相信超人工智能一定會出現,還可以幫助人們解決困擾人類生活的疾病、能源和氣候問題,使人長生不老、生活更加美好。
但是,雨果認為庫茲威爾太過樂觀,政治上有點幼稚,后者完全不承認人工智能帶來的社會風險以及可能引發的人類戰爭。而雨果認為,無論是人類試圖設計友好的人工智能機器,還是將人類變成半機器人(Cyborg),都無法解決未來的困境,預言中的"人工智能戰爭"從理論上講是無法避免的。
"我們是在制造上帝,還是在制造我們潛在的終結者",這是雨果不斷要追問下去的問題。
這也將是人類在21世紀面臨的終極困惑。