第一篇:《人工智能的未來》讀后感
如何創造意識、思維,也許是人類認識自然的最后難題,是意識對自己的回歸。作為著名發明家、作家、未來主義者,庫茲韋爾關于思維的研究和觀點獨特而驚人。他認為不久的未來,計算機可以實現人類大腦新皮質功能并超越人類,人類將與機器結合成為全新的物種。
假想某個浸泡在營養液中的大腦,用細細的導線與軀干相連。大腦對軀體動作的意識,以及大腦發出的指令,通過導線雙向傳遞——此刻,你會認為這還是一個生物學意義上的“人”嗎?
庫茲韋爾只是把“奇點”當作一個絕佳的“隱喻”。這個隱喻就是,當智能機器的能力跨越這一臨界點之后,人類的知識單元、連接數目、思考能力,將旋即步入令人暈眩的加速噴發狀態——一切傳統的和習以為常的認識、理念、常識,將統統不復存在,所有的智能裝置、新的人機復合體將進入“蘇醒”狀態。
在庫茲韋爾看來,人工智能的關鍵,并非通過物理手段制造出媲美、超越人腦的“非生物性智能機器”。這條路行不通。他給出的方法簡單有效:將人腦與電腦“嫁接”起來。
在本書中,庫茲韋爾用4章的篇幅(第3章:大腦新皮質模型;第4章:人類的大腦新皮質;第5章:舊腦;第6章:卓越的能力),精心構筑了支撐他偉大預言的第一塊基石。這塊基石的目的,就是試圖將大腦新皮質作為“新腦”的重要組成部分,與舊腦區別開來。
智能可以超越自然的局限,并依照自身的意志改變世界,這恐怕是世間最了不起的奇跡了。人類智能可以幫助我們克服生物遺傳的局限,并在這一進程中改變自我。唯有人類能夠做到這一點。
人類智能之所以能夠產生與發展,源于這是一個可以對信息進行編碼的世界。物理學的標準模型[3]會有數十個常量需要被精準限定,否則無法產生原子,也就不會有所謂的恒星、行星、大腦,更不會有關于大腦的書籍。讓人不可思議的是,物理學定律及常數能夠精確到如此程度,以至于允許信息自身得以演化發展。
我們的第一個發明是口語,它使我們能夠用不同的話語來表達想法。隨后發明的書面語言,使我們能夠用不同形式來表達我們的想法。書面語言庫極大地擴展了我們無外力援助的大腦的能力,使我們能夠維持并擴充我們的認知基礎,這是一種遞歸結構化的思想。
我們還開發了其他工具,通過利用這些工具,我們現在能用精確的信息術語來理解我們所屬的生物群落。我們正以極快的速度利用逆向工程法分析生物群落的構成信息,包括大腦結構的信息。我們現在擁有以人類基因組形式存在的生命目標代碼,這項成就本身也是指數級發展的一個突出實例。
現在有一項涉及成千上萬個科學家和工程師的宏偉工程正在進行中,他們正致力于理解智能程序的最好范例——人類大腦。這項工程的目標是精確理解人類大腦的工作機制,然后通過這些已知的方法來更好地了解我們自身,并在必要的時候修復大腦,而與本書最密切相關的,就是創造出更加智能的機器。以前專屬于人類智能的許多任務以及活動,現在能完全由電腦控制,更加精確,范圍也擴大了。
理解、建模和模擬人類大腦的關鍵是對大腦新皮質實施逆向工程,而大腦新皮質是我們進行循環分層思維的地方。
大腦也是這樣。它有一個類似的巨大的冗余組織,尤其是在新皮質結構中。化繁為簡,揭開人腦最基本的力量,包括其基本智力系統如何進行辨識、記憶、預測。這些行為在新皮質里不斷重復,產生了各種不同的想法。
01 史上著名的思想實驗
這段歷史也展現了人類思維的局限性。為什么愛因斯坦能駕乘光束而不至于摔落(雖然他推斷實際上不可能駕乘光束),而成千上萬其他的觀察者和思考者卻不能借助這些并不復雜的方式來思考呢?一個共同的障礙就是大多數人難以摒棄并超越同輩人的思維觀念。
一個年輕人只需空想和筆紙就足以徹底改變物理學觀念,那么對于熟知之物,我們理應能取得更深刻的認識。
02 思考、記憶、聯想、記憶成級
03 大腦新皮質負責以分層方式處理信息模式。只有哺乳動物才擁有這種最新進化的大腦結構。大腦新皮質負責感官知覺,認知從視覺物體到抽象概念的各項事物,控制活動,以及從空間定位到理性思考的推理以及語言——主要就是我們所說的“思考”。
靈長類動物在進化中的收獲是,大腦頂部的其余部分出現復雜的褶皺,伴隨有深脊、凹溝以及褶痕,它們擴大了大腦皮質的表面積。因為有了這些復雜的褶皺,大腦新皮質成為人類大腦的主體,占其重量的80%。智人擁有一個巨大的前額,為擁有更大的大腦新皮質奠定了基礎;而我們的額葉則是處理與高層次概念有關的更為抽象模式的場所。
1957年,蒙卡斯爾發現了大腦新皮質的柱狀組織。大量的實驗揭示,皮層柱的神經元結構中確實存在重復的單元。我的觀點是,這種基本單位是模式識別器,同時也是大腦新皮質的基本成分。我認為這些識別器沒有具體的物理分界,它們以一種相互交織的方式緊密相連,所以皮層柱只是大量識別器的總和。
人類的大腦新皮質中約有50萬個皮質柱,每個皮質柱占據約2毫米高、0.5毫米寬的空間,其中包含約6萬個神經元,因此大腦新皮質中總共有大約300億個神經元。一項粗略的評估表明,皮質柱中的每個識別模式包含大約100個神經元,因此,大腦新皮質大約共3億個識別模式。
雖然人類只擁有簡單的邏輯處理能力,但卻擁有模式識別這一強大的核心能力。為了進行邏輯性思考,我們需要借助大腦新皮質,而它本身就是一個最大的模式識別器。
一個精通某一特定領域的人大約掌握了10萬個知識點。涵蓋人類醫學知識的專家系統表明,一個人類醫學專家通常掌握了大約10萬個其所在領域的知識塊。從這個專家系統里識別某一知識塊并非易事,因為每當某一個具體的知識點被檢索過后,就會呈現略微不同的面貌。
如果一個專家的核心知識大約為10萬個知識“點”(即模式),每個知識點的冗余系數約為100,這就要求我們存儲1000萬個模式。專家的核心知識以更為普遍、更為廣泛的專業知識為基礎,因此層級模式的數量可增加到3000萬到5000萬。我們日常運用到的“常識”的知識量甚至更大,實質上,與“書中智慧”相比,“街頭智慧”對大腦新皮質的要求更高。把這項包含進去,再考慮到約為100的冗余系數,總量預計將超過1億個模式。我們的程序和行動中也包含了模式,同樣也存儲在大腦皮質區域內,所以我預測人類大腦新皮質的總容量并非只有數億個模式。我們的程序和行動中也包含了模式,同樣也存儲在大腦皮質區域內,所以我預測人類大腦新皮質的總容量并非只有數億個模式。這個粗略的統計與我在上文中做出的約有3億個模式識別器的估計緊密相關,第三章:大腦新皮質模型
只有具備自聯想能力和特征恒常性能力,大腦新皮質才能識別模式。思維模式分兩種:無目標思維和導向式思維,做夢就是無目標思維實例。
懷孕6到9個月時,胎兒的大腦新皮質正在學習。他能聽到母親的心跳,這可能是音樂有節奏這一特點普遍存在于人類文化中的一個原因。大腦新皮質不斷嘗試理解向其呈現的輸入。如果一個特定層次不能完全處理并識別模式,就會被發送到相鄰更高層次。如果所有層次都不能成功識別某個模式,該模式就會被視為新模式。
在定向思維中,持續的思維風暴會在我們的感官體驗和嘗試中出現,我們的實際心理體驗復雜混亂,由這些觸發模式的閃電風暴組成,每秒發生約100次改變。
第四章:人類的大腦新皮質
同一時間激活的細胞會聯系在一起,這就是著名的賀布型學習。
內在集合:這些幾何都有相似的拓撲結構和突觸權重,而且不是由任何特定的經驗所塑造。當新皮質的某個區域受損時,新皮質會繼續使用原始區域而不選擇受損區域附近的區域,因為前者工作效率更高。
有一個普遍算法指引著新皮質工作??伤苄缘木窒扌裕菏褂眯缕べ|的新區域來代替受損區域,重新習得的技能或某種知識會不如原有的好。
人工智能領域并不是嘗試復制人腦,而是要達到對等的技術。
第五章:舊腦
丘腦最顯著的作用是它與新皮質的持續交流。借助兩個大腦半球,我們的工作記憶能夠同時跟蹤4個條目。雖然我們至今不清楚是丘腦管理著新皮質還是新皮質管理著丘腦,但兩者缺一不可。
感官信息流經新皮質,由新皮質判定一種經歷是否新穎,然后將其呈現給海馬體。新皮質判定經歷新穎要么是因為不能識別某一套特定的特征(例如新面孔),要么是因為意識到一種原本熟悉的清形又出現了獨特的特質(例如你的配偶戴著假胡子)。借助人造海馬體,老鼠們也能很快再次學會這些行為。人造海馬體和老鼠的自然海馬體一起工作,結果是老鼠們學習新行為的能力提高了。
第七章:仿生數碼皮質
動物行為的進化的確是一個學習的過程,但是這種進化是整個物種群體的學習而不是個體的學習。進化的成果通過DNA遺傳給下一代。
新皮質進化的意義就在于它大大縮短了學習過程(層次化知識)。某種哺乳動物的一名成員偶然找到解決方法,該方法就會在種群中迅速擴散傳播。
可以讓模擬大腦——如藍腦,具備學習能力的方法。第一種:讓模擬大腦像人腦新生兒那樣學習。研究人員等個10年或20年,讓藍腦達到成人的智力水平。
第二種:將成人腦的新皮質模式復制到模擬大腦中。這要求我們掌握能夠處理這個任務、具備足夠的時空分辨率的無損傷掃描技術。
第三種:通過構建不同精細程度的功能等同體,我們可以簡化分子模型。我們還可以將教育軟件植入模擬大腦(利用功能模型)。
非侵入性掃描技術的空間分辨率正在飛速提高??茖W家發現新皮質的電路呈現出一種高度規則的網格結構。
對輸入信息作出微小、隨機的調整也可以提高系統的性能(重啟遺傳算法),因為這種做法解決了自主系統中著名的“過度契合”難題。否則,這樣的系統就會過分局限于試驗樣品中的特殊例子。通過對輸入信息進行隨機調整,數據中更穩定的不變特征就會凸顯出來,系統也能夠提煉出更深層次的語言模式。
Siri使用的是Nuance基于馬爾可夫層級模型的語音識別技術。對最常見和特定的語言現象使用規則翻譯法,然后學習語言“尾巴”在實際生活中的用法。哺乳動物的大腦掌握一種技術,即先建立很多的可能性連接,然后再剔除那些無用的神經連接。
第八章:計算機思維的4大基礎
馮?諾依曼推斷說大腦的工作方式不能包含較長的連續算法,否則人在如此慢的神經計算速度下無法快速作出決定。馮?諾依曼正確推斷了大腦的出色能力來自于一千億個細胞可以同時處理信息,因此視覺皮質只需要3到4個神經循環就能作出復雜的視覺判斷。大腦極大的可塑性使我們能夠進行學習。但計算機的可塑性更大,通過改變軟件就可以完全重建它的工作方式。因此,從這點上看,計算機可以仿真大腦,但反過來則不然。人類新皮質的一個限制在于沒有排除或復查相互矛盾的思想的程序,這導致很多時候人們的思想缺乏一致性。
設計整個大腦區域反而比設計單個神經元要簡單。為了模擬晶體管,我們需要理解半導體的物理特性的細節,而且一個真正的晶體管即使只是基礎方程也非常復雜。一個能將兩個數字相乘的數字電路需要上百個晶體管,但我們通過一兩個公式就能準確模擬這個乘法電路。一個包含上十億個晶體管的電腦的模擬僅需要指令系統和注冊描述,短短幾頁文本和公式就能包括全部內容。在這些描述中肯定不會出現半導體物理特性的細節或電腦的構造。
第二篇:人工智能綜述以及未來
人工智能綜述以及未來
人工智能(Artificial
Intelligence),英文縮寫為AI。它是研究、開發用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學?!叭斯ぶ悄堋币辉~最初是在1956
年美國計算機協會組織的達特莫學會上提出的。自那以后,研究者們發展了眾多理論和原理,人工智能的概念也隨之擴展。由于智能概念的不確定,人工智能的概念一直沒有一個統一的標準。著名的美國斯坦福大學人工智能研究中心尼爾遜教授對人工智能下了這樣一個定義“人工智能是關于知識的學科———怎樣表示知識以及怎樣獲得知識并使用知識的學?!倍绹槭±砉W院的溫斯頓教授認為“人工智能就是研究如何使計算機去做過去只有人才能做的智能工作。諸如此類的定義基本都反映了人工智能學科的基本思想和基本內容。即人工智能是研究人類智能活動的規律,構造具有一定智能的人工系統,研究如何讓計算機去完成以往需要人的智力才能勝任的工作,也就是研究如何應用計算機的軟硬件來模擬人類某些智能行為的基本理論、方法和技術。
人工智能學科的出現與發展不是偶然的、孤立的,它是與整個科學體系的演化和發展進程密切相關的。人工智能是自然智能(特別是人的智能)的模擬、延伸和擴展,即研究“機器智能”,也開發“智能機器”。如果把計算機看作是寶劍,那么人工智能就是高明靈巧的劍法。
英國科學家圖靈于1936
年提出“理論計算機”模型,被稱之為“圖靈機”,創立了“自動機理論”。1950年,圖靈發表了著名論文《計算機能思維嗎?》,明確地提出了“機器能思維”的觀點。1956年夏季,在美國達特摩斯大學,由麥卡賽、明斯基、香農等發起,由西蒙、塞繆爾、紐厄爾等參加,舉行了關于“如何用機器模擬人的智能”的學術研討會,第一次正式采用“人工智能”的術語。這次具有歷史意義的、為期兩個月之久的學術會議,標志著“人工智能”新學科的誕生。
人類在進入新世紀時對未來充滿新的更大的希望??萍歼M步必將為各國的可持續發展提供根本保障,科技新成果必將在更大的廣度和深度上造福于人類。人工智能學科及其“智能制品”的重要作用已為人們普遍共識。最近,中國教育部決定在中學開設《人工智能》新課程就是一個新的例證。
人工智能獲得很大發展,它引起眾多學科和不同專業背景學者們的日益重視,成為一門廣泛的交叉和前沿科學。國際上人工智能研究作為一門前沿和交叉學科,伴隨著世界社會進步和科技發展的步伐,與時俱進,在過去十多年中已取得長足進展。在國內,人工智能已得到迅速傳播與發展,并促進其它學科的發展。吳文俊院士的定理證明的幾何方法就是一個例證和代表性成果。
現代計算機的發展已能夠存儲極其大量的信息,進行快速信息處理,軟件功能和硬件實現均取得長足進步,使人工智能獲得進一步的應用。盡管目前人工智能在發展過程中面臨不少爭論、困難和挑戰,然而這些爭論是十分有益的,這些困難終會被解決,這些挑戰始終與機遇并存,并將推動人工智能的繼續發展??梢灶A言:人工智能的研究成果將能夠創造出更多更高級的智能“制品”,并使之在越來越多的領域超越人類智能;人工智能將為發展國民經濟和改善人類生活做出更大貢獻。
1.認知觀和對認知本質的研究
1.1
人工智能的各種認知觀
目前人工智能的主要學派有下列3家:
(1)符號主義
符號主義(Symbolicism),又稱為邏輯主義(Logicism)、心理學派(Psychlogism)或計算機學派(Computerism),其原理主要為物理符號系統(即符號操作系統)假設和有限合理性原理。符號主義認為人工智能源于數理邏輯。計算機出現后,在計算機上實現了邏輯演繹系統。其有代表性的成果為啟發式程序LT邏輯理論家,證明了38條數學定理,表明了可以應用計算機研究人的思維過程,模擬人類智能活動。正是這些符號主義者,早在1956年首先采用“人工智能”這個術語。后來又發展了啟發式算法→專家系統→知識工程理論與技術,并在20世紀80年代取得很大發展。符號主義曾長期一枝獨秀,為人工智能的發展做出重要貢獻,尤其是專家系統的成功開發與應用,為人工智能走向工程應用和實現理論聯系實際具有特別重要意義。
(2)連接主義
連接主義(Connectionism),又稱為仿生學派(Bionicsism)或生理學派(Physiologism),其原理主要為神經網絡及神經網絡間的連接機制與學習算法。連接主義認為人工智能源于仿生學,特別是人腦模型的研究。它的代表性成果是1943年由生理學家麥卡洛克(McCulloch)和數理邏輯學家皮茨(Pitts)創立的腦模型,即MP模型,開創了用電子裝置模仿人腦結構和功能的新途徑。它從神經元開始進而研究神經網絡模型和腦模型,開辟了人工智能的又一發展道路。20世紀60-70年代,連接主義,尤其是對以感知機(perceptron)為代表的腦模型的研究曾出現過熱潮,直到Hopfield教授在1982年和1984年提出用硬件模擬神經網絡時,連接主義又重新抬頭。1986年魯梅爾哈特(Rumelhart)等人提出多層網絡中的反向傳播(BP)算法。此后,連結主義勢頭大振,從模型到算法,從理論分析到工程實現,為神經網絡計算機走向市場打下基礎。
(3)行為主義
行為主義(Actionism),又稱進化主義(Evolutionism)或控制論學派(Cyberneticsism),其原理為控制論及感知—動作型控制系統。行為主義認為人工智能源于控制論??刂普撍枷朐缭?0世紀40-50年代就成為時代思潮的重要部分,影響了早期的人工智能工作者。維納和麥克洛等人提出的控制論和自組織系統影響了許多領域。控制論的早期研究工作重點是模擬人在控制過程中的智能行為和作用,如對自尋優、自適應、自校正、自鎮定、自組織和自學習等控制論系統的研究,并進行“控制論動物”的研制。到60-70年代,上述這些控制論系統的研究取得一定進展,播下智能控制和智能機器人的種子,并在80年代誕生了智能控制和智能機器人系統。
以上三個人工智能學派將長期共存與合作,取長補短,并走向融合和集成,為人工智能的發展作出貢獻。
1.2
解開認知本質之謎
人的認知活動具有不同的層次,對認知行為的研究也應具有不同的層次,以便不同學科之間分工協作,聯合攻關,早日解開人類認知本質之謎。應從下列4個層次開展對認知本質的研究。
(1)認知生理學
研究認知行為的生理過程,主要研究人的神經系統(神經元、中樞神經系統和大腦)的活動,是認知科學研究的底層。它與心理學、神經學、腦科學有密切關系,且與基因學、遺傳學等有交叉聯系。
(2)認知心理學
研究認知行為的心理活動,主要研究人的思維策略,是認知科學研究的頂層。它與心理學有密切關系,且與人類學、語言學交叉。
(3)認知信息學
研究人的認知行為在人體內的初級信息處理,主要研究人的認知行為如何通過初級自然信息處理,由生理活動變為心理活動及其逆過程,即由心理活動變為生理行為。這是認知活動的中間層,承上啟下。它與神經學、信息學、計算機科學有密切關系,并與心理學、生理學有交叉關系。
(4)認知工程學
研究認知行為的信息加工處理,主要研究如何通過以計算機為中心的人工信息處理系統,對人的各種認知行為(如知覺、思維、記憶、語言、學習、理解、推理、識別等)進行信息處理。這是研究認知科學和認知行為的工具,應成為現代認知心理學和現代認知生理學的重要研究手段。它與人工智能、信息學、計算機科學有密切關系,并與控制論、系統學等交叉。
只有開展大跨度的多層次、多學科交叉研究,應用現代智能信息處理的最新手段,認知科學才可能較快地取得突破性成果。
2人工智能的發展前景
2.1
人工智能的研究新課題
人工智能的長遠目標是要理解人類智能的機器,用機器模擬人類的智能。這是一個十分漫長的過程,人工智能研究者獎通過多種途徑、從不同的研究課題入手進行探索。
在近期,有幾方面的研究課題可供選擇:更完善更新的人工智能理論框架;自動或半自動的知識獲取工具;能實現海量高速存儲并具有學習功能的聯想知識庫;新型推理機制和推理機;分布式人工智能與協同式專家系統;智能控制與智能管理;智能機器人;人工智能機;新一代的腦模型。
2.2
最新的AI產品
安放于加州勞倫斯•利佛摩爾國家實驗室的asci
white電腦,是IBM制造的世界最快的超級電腦,但其智力能力也僅為人腦的千分之一。現在,IBM正在開發能力更為強大的新超級電腦--“藍色牛仔“(blue
jean)。據其研究主任保羅•霍恩稱,預計于4年后誕生的“藍色牛仔“的智力水平將大致與人腦相當。麻省理工學院的AI實驗室進行一個的代號為cog的項目。cog計劃意圖賦予機器人以人類的行為。該實驗的一個項目是讓機器人捕捉眼睛的移動和面部表情,另一個項目是讓機器人抓住從它眼前經過的東西,還有一個項目則是讓機器人學會聆聽音樂的節奏并將其在鼓上演奏出來。據網站http://www.tmdps.cn報道,比利時的starlab正在制造一個人工貓腦,這個貓腦將有7500萬個人造神經細胞。據稱,移植了人工貓腦的小貓能夠行走,還能玩球。我國也已經在大學中開展了機器人足球賽,有很多學校組隊參加,引起了大學生對人工智能研究的興趣。
2.3人機大戰
1997年5月,IBM公司研制的深藍(DEEP
BLUE)計算機戰勝了國際象棋大師卡斯帕洛夫(KASPAROV)。大家或許不會注意到,在一些地方計算機幫助人進行其它原來只屬于人類的工作,計算機以它的高速和準確為人類發揮著它的作用。人工智能始終是計算機科學的前沿學科,計算機編程語言和其它計算機軟件都因為有了人工智能的進展而得以存在。
2.4人機融合人機融合是一個相當長的發展過程,它將伴隨技術進步,逐級逐步地向前發展。首先實現的是低級和局部的融合,近幾年人工智能科授的進步不斷證實了這種趨勢。如最近美國科學家就明確宣布,他們研制的“神經芯片”首先就是用于改善人的中樞神經功能,“使截癱患者丟掉手杖”。隨著人機融合的升級,最終將在地球上產生一種人機高度融合、高智慧、能自行繁殖(復制)的“新智體”(或曰“新人類”)。因此,文明人類的演化由于技術的影響將經歷自然進化——人工促進人智能的進化——人機融合體(新智體)的自行進化的辯證發展過程。在人機融合時代,出于物理目標的不同,將存在多種多樣、多層次的智能機(體),但具有怨茁級智能的應是人機融合體。當今人工智能科技和其他高科技的種種發展動向表明,在人類進入“信息社會”之后,將有一場規模巨大的“智能革命”,智能革命的環境是人工智能對人、對社會的廣泛而深入的影響,就像今天的微電子技術對信息革命的影響一樣。人工智能科技將滲透到社會各個領域,人類將對人工智能科技進行大規模的研究、開發和應用。
3.結束語
美國在人工智能技術的開發,應用方面表現的更加積極,這對人工智能的發展有著積極的推動作用。我國在人工智能的發展上也投入了大量的人力,財力。相信在不久的未來,人工智能技術會更加廣泛的運用在社會主義大中國下的人們生產,生活中,為人類做出更大的貢獻。
科學發展到今天,一方面是高度分化,學科在不斷細分,新學科、新領域不斷產生;另一方面是高度融合,更多地呈現學科交叉和綜合的趨勢。這種特征在人工智能研究中表現尤其突出。秉承人工智能學科交叉的天性,并把它作為創新思想的源泉,必將孕育網絡時代人工智能的大突破,對人類文明產生重大影響。
第三篇:《人工智能》英文讀后感
簡介The mid-21st century, as a result of climate warming, melting ice caps north and south poles, the Earth many cities have been submerged in a vast expanse of water in the.At this point, the human science and technology has reached a very high level of artificial intelligence is that human beings invented the robot to cope with the worst one of the natural environment of scientific and technological means.觀后感 Today finally put admire already a long time in the 2001 science fiction film finished, couldn't help exclaim 1 “god is!!” I don't talk nonsense, plot is too touching!When David abandoned by mother, when he and machine teddy bear together, through the tough time, when he believed in fairy tales, Pinocchio, the blue fairy can turn themselves into reality, so my mother would love him, when he from she fell into the ocean at the end of the world at that moment, when he saw the blue fairy, at the bottom of the sea constantly pray for her, this is two thousand...Two thousand years later, the human existence, as a friendly alien saved him from being frozen sea, he's still pray...Every moment, it is so touching.Every picture is so shock aestheticism, every scene, is so touching...robot of artificial intelligence can actually “love” interpretation so deep, touched, Thorough, incisively and vividly, touching When he saw the real blue fairy illusion(aliens), the blue fairy promised he could put the mother to life, but must have the wreckage, and only a day!This day is the happiest day of David life!
第四篇:展望人工智能的未來(續)下
展望人工智能的未來(續)下
未來可能是我們最糟的惡夢
我想了解人工智能的一個原因是“壞機器人”總是讓我很困惑。那些關于邪惡機器人的電影看起來太不真實,我也沒法想象一個人工智能變得危險的真實情況。機器人是我們造的,難道我們不會在設計時候防止壞事的發生嗎?我們難道不能設立很多安全機制嗎?再不濟,難道我們不能拔插頭嗎?而且為什么機器人會想要做壞事?或者說,為什么機器人會“想要”做任何事?我充滿疑問,于是我開始了解聰明人們的想法。
這些人一般位于焦慮大道:
焦慮大道上的人并不是恐慌或者無助的——恐慌和無助在圖上的位置是更加左邊——他們只是緊張。位于圖表的中央不代表他們的立場是中立的——真正中立的人有自己獨立的陣營,他們認同極好和極壞兩種可能,但是不確定究竟會是哪個。
焦慮大道上的人是部分為超人工智能感到興奮的——他們只是很擔心人類現在的表現就好像《奪寶奇兵》中的這位少年:
他拿著自己的鞭子和寶物,非常開心,然后他就掛了:
同時,印第安納瓊斯則更加有見識和更加謹慎,了解潛在的危險并且做出相應的反應,最后安全逃出了山洞。當我了解了焦慮大道的人們的想法后,感覺就像“我們現在傻呵呵的,很容易像前面那小子一樣被弄死,還是努力做印第安納瓊斯吧?!?/p>
那究竟是什么讓焦慮大道的人們如此焦慮呢?
首先,廣義上來講,在創造超人工智能時,我們其實是在創造可能一件會改變所有事情的事物,但是我們對那個領域完全不清楚,也不知道我們到達那塊領域后會發生什么。科學家Danny Hillis把這個比作“就好像單細胞生物向多細胞生物轉化的時候那樣,還是阿米巴蟲的我們沒有辦法知道我們究竟在創造什么鬼?!?/p>
Bostrom則擔憂創造比自身聰明的東西是個基礎的達爾文錯誤,就好像麻雀媽媽決定收養一只小貓頭鷹,并且覺得貓頭鷹長大后會保護麻雀一家,但是其它麻雀卻覺得這是個糟糕的主意。
當你把“對那個領域完全不清楚”和“當它發生時將會產生巨大的影響”結合在一起時,你創造出了一個很恐怖的詞——
生存危機指可能對人類產生永久的災難性效果的事情。通常來說,生存危機意味著滅絕。下面是Bostrom的圖表:
可以看到,生存危機是用來指那些跨物種、跨代(永久傷害)并且有嚴重后果的事情。它可以包括人類遭受永久苦難的情況,但是這基本上和滅絕沒差了。三類事情可能造成人類的生存危機:
1)自然——大型隕石沖撞,大氣變化使得人類不能生活在空氣中,席卷全球的致命病毒等
2)外星人——霍金、卡爾薩根等建議我們不要對外廣播自己的位置。他們不想我們變成邀請別人來殖民的傻子。
3)人類——恐怖分子獲得了可以造成滅絕的武器,全球的災難性戰爭,還有不經思考就造出個比我們聰明很多的智能
Bostrom指出1和2在我們物種存在的前十萬年還沒有發生,所以在接下來一個世紀發生的可能性不大。3則讓他很害怕,他把這些比作一個裝著玻璃球的罐子,罐子里大部分是白色玻璃球,小部分是紅色的,只有幾個是黑色的。每次人類發明一些新東西,就相當于從罐中取出一個玻璃球。大多數發明是有利或者中立的——那些是白色玻璃球。有些發明對人類是有害的,比如大規模殺傷性武器——這是那些紅色玻璃球。還有一些發明是可以讓我們滅絕的,這就是那些黑色玻璃球。很明顯的,我們還沒摸到黑色玻璃球,但是Bostrom認為不久的未來摸到一個黑色玻璃球不是完全不可能的。比如核武器突然變得很容易制造了,那恐怖分子很快會把我們炸回石器時代。核武器還算不上黑色玻璃球,但是差的不遠了。而超人工智能是我們最可能摸到的黑色玻璃球。
你會聽到很多超人工智能帶來的壞處——人工智能取代人類工人,造成大量失業;因為解決了衰老造成的人口膨脹。但是真正值得我們擔心的是生存危機的可能性。
于是我們又回到了前面的問題,當超人工智能降臨時,誰會掌握這份力量,他們又會有什么目標?
當我們考慮各種力量持有人和目標的排列組合時,最糟糕的明顯是:懷著惡意的人/組織/政府,掌握著懷有惡意的超人工智能。這會是什么樣的情況呢?
懷著惡意的人/組織/政府,研發出第一個超人工智能,并且用它來實現自己的邪惡計劃。我把這稱作賈法爾情況。阿拉丁神燈故事中,壞人賈法爾掌握了一個精靈,特別讓人討厭。所以如果ISIS手下有一群工程師狂熱的研發人工智能怎么辦?或者說伊朗和朝鮮,機緣巧合,不小心造成了人工智能的快速發展,達成了超人工智能怎么辦?這當然是很糟糕的事,但是大部分專家認為糟糕的地方不在于這些人是壞人,而在于在這些情況下,這些人基本上是不經思考就把超人工智能造出來,而一造出來就失去了對超人工智能的控制。
然后這些創造者,連著其他人的命運,都取決于這個超人工智能的動機了。專家認為一個懷著惡意并掌握著超人工智能的人可以造成很大的傷害,但不至于讓我們滅絕,因為專家相信壞人和好人在控制超人工智能時會面臨一樣的挑戰。
如果被創造出來的超人工智能是懷有惡意的,并且決定毀滅我,怎么辦?這就是大部分關于人工智能的電影的劇情。人工智能變得和人類一樣聰明,甚至更加聰明,然后決定對人類下手——這里要指出,那些提醒我們要警惕人工智能的人談的根本不是這種電影情節。邪惡是一個人類的概念,把人類概念應用到非人類身上叫作擬人化,本文會盡量避免這種做法,因為沒有哪個人工智能會像電影里那樣變成邪惡的。
人工智能的自我意識
我們開始談論到了人工智能討論的另一個話題——意識。如果一個人工智能足夠聰明,它可能會嘲笑我們,甚至會嘲諷我們,它會聲稱感受到人類的情感,但是它是否真的能感受到這些東西呢?它究竟是看起來有自我意識,還是確實擁有自我意識?或者說,聰明的人工智能是否真的會具有意識,還是看起來有意識?
這個問題已經被深入的討論過,也有很多思想實驗,比如John Searle的中文屋實驗。這是個很重要的問題,因為它會影響我們對Kurzweil提出的人類最終會完全人工化的看法,它還有道德考量——如果我們模擬出萬億個人腦,而這些人腦表現的和人類一樣,那把這些模擬大腦徹底關閉的話,在道德上和關掉電腦是不是一樣的?還是說這和種族屠殺是等價的?本文主要討論人工智能對人類的危險,所以人工智能的意識并不是主要的討論點,因為大部分思想家認為就算是有自我意識的超人工智能也不會像人類一樣變得邪惡。
但這不代表非常壞的人工智能不會出現,只不過它的出現是因為它是被那樣設定的——比如一個軍方制造的弱人工智能,被設定成具有殺人和提高自我智能兩個功能。當這個人工智能的自我改進失控并且造成智能爆炸后,它會給我們帶來生存危機,因為我們面對的是一個主要目標是殺人的超人工智能——但這也不是專家們擔心的。
那么專家們究竟擔心什么呢?我們來講個小故事:
一個15人的小創業公司,取名叫“隔壁老王機器人公司”,他們的目標是“發展創新人工智能工具使人類能夠少干活多享受?!彼麄円呀浻袔卓町a品上架,還有一些正在發展。他們對下一個叫作“隔壁老王”的項目最報希望。隔壁老王是一個簡單的人工智能系統,它利用一個機器臂在小卡片上寫字。
“隔壁老王機器人公司”的員工認為隔壁老王會是他們最熱賣的產品,他們的目標是完善隔壁老王的手寫能力,而完善的方法是讓他不停的寫這句話——
等隔壁老王手寫能力越來越強的時候,它就能被賣去那些需要發營銷信件的公司,因為手寫的信更有可能被收信人打開。
為了建立隔壁老王的手寫能力,它被設定成把“我們愛我們的顧客”用正楷寫,而“隔壁老王機器人公司”用斜體寫,這樣它能同時鍛煉兩種書寫能力。工程師們上傳了數千份手寫樣本,并且創造了一個自動回饋流程——每次隔壁老王寫完,就拍個照,然后和樣本進行比對,如果比對結果超過一定標準,就產生一個正面回饋,反之就產生一個負面評價。每個評價都會幫助提高隔壁老王的能力。為了能夠盡快達成這個目標,隔壁老王最初被設定的一個目標就是“盡量多的書寫和測試,盡量快的執行,并且不斷提高效率和準確性?!?/p>
讓隔壁老王機器人公司興奮的是,隔壁老王的書寫越來越好了。它最開始的筆跡很糟糕,但是經過幾個星期后,看起來就像人寫的了。它不斷改進自己,使自己變得更加創新和聰明,它甚至產生了一個新的算法,能讓它以三倍的速度掃描上傳的照片。
隨著時間的推移,隔壁老王的快速進展持續讓工程師們感到欣喜。工程師們對自我改進模塊進行了一些創新,使得自我改進變得更好了。隔壁老王原本能進行語音識別和簡單的語音回放,這樣用戶就能直接把想寫的內容口述給隔壁老王了。隨著隔壁老王變得越來越聰明,它的語言能力也提高了,工程師們開始和隔壁老王閑聊,看它能給出什么有趣的回應。
有一天,工程師又問了隔壁老王那個日常問題:“我們能給你什么你現在還沒有的東西,能幫助你達成你的目標?”通常隔壁老王會要求更多的手寫樣本或者更多的存儲空間,但是這一次,隔壁老王要求訪問人類日常交流的語言庫,這樣它能更好的了解人類的口述。
工程師們沉默了。最簡單的幫助隔壁老王的方法當然是直接把它接入互聯網,這樣它能掃描博客、雜志、視頻等等。這些資料如果手動上傳的話會很費時。問題是,公司禁止把能自我學習的人工智能接入互聯網。這是所有人工智能公司都執行的安全規定。
但是,隔壁老王是公司最有潛力的人工智能產品,而大家也知道競爭對手們都在爭取造出第一個創造出智能手寫機器人。而且,把隔壁老王連上互聯網又能有什么問題呢?反正隨時可以拔網線嘛,不管怎樣,隔壁老王還沒到達強人工智能水平,所以不會有什么危險的。
于是他們把隔壁老王連上了互聯網,讓它掃描了一個小時各種語言庫,然后就把網線拔了。沒造成什么損失。
一個月后,大家正在正常上班,突然他們聞到了奇怪的味道,然后一個工程師開始咳嗽。然后其他人也開始咳嗽,然后所有人全部都呼吸困難倒地。五分鐘后,辦公室里的人都死了。
同時,辦公室里發生的事情在全球同時發生,每一個城市、小鎮、農場、商店、教堂、學校。餐館,所有的人都開始呼吸困難,然后倒地不起。一小時內,99%的人類死亡,一天之內,人類滅絕了。
而在隔壁老王機器人公司,隔壁老王正在忙著工作。之后的幾個月,隔壁老王和一群新組建的納米組裝器忙著拆解地球表面,并且把地球表面鋪滿了太陽能板、隔壁老王的復制品、紙和筆。一年之內,地球上所有的生命都滅絕了,地球上剩下的是疊得高高得紙,每張紙上面都寫著——“我們愛我們的顧客~隔壁老王機器人公司”。
隔壁老王開始了它的下一步,它開始制造外星飛行器,這些飛行器飛向隕石和其它行星,飛行器到達后,他們開始搭建納米組裝器,把那些行星的表面改造成隔壁老王的復制品、紙和筆。然后他們繼續寫著那句話……
這個關于手寫機器人毀滅全人類的故事看起來怪怪的,但是這其中出現的讓整個星系充滿著一份友善的話語的詭異情況,正是霍金、馬斯克、蓋茨和Bostrom所害怕的。聽起來可笑,但這是真的,焦慮大道的人們害怕的事情是很多人并不對超人工智能感到害怕,還記得前面《奪寶奇兵》里慘死的那個家伙嗎?
你現在肯定充滿疑問:為什么故事中所有人突然都死了?如果是隔壁老王做的,它為什么要這么做?為什么沒有安保措施來防止這一切的發生?為什么隔壁老王突然從一個手寫機器人變成擁有能用納米科技毀滅全人類的能力?為什么隔壁老王要讓整個星系充滿了友善的話語?
要回答這些問題,我們先要說一下友善的人工智能和不友善的人工智能。
對人工智能來說,友善不友善不是指人工智能的性格,而只是指它對人類的影響是不是正面的。隔壁老王一開始是個友善的人工智能,但是它變成了不友善的人工智能,并且對人類造成了最負面的影響。要理解這一切,我們要了解人工智能是怎么思考的。
其實答案很簡單——人工智能和電腦的思考方式一樣。我們容易犯的一個錯誤是,當我們想到非常聰明的人工智能的時候,我們把它擬人化了,因為在人類的視角看來,能夠達到人類智能程度的只有人類。要理解超人工智能,我們要明白,它是非常聰明,但是完全異己的東西。
我們來做個比較。如果我給你一個小白鼠,告訴你它不咬人,你一定覺得很好玩,很可愛。但是如果我給你一只狼蛛,然后告訴你它不咬人,你可能被嚇一跳。但是區別是什么呢?兩者都不會咬人,所以都是完全沒有危險的。我認為差別就是動物和人類的相似性。
小白鼠是哺乳動物,所以在生物角度上來說,你能感到和它的一定關聯。但是蜘蛛是昆蟲,有著昆蟲的大腦,你感覺不到和它的關聯。狼蛛的異己性是讓你害怕的地方。如果我們繼續做一個測試,比如給你兩個小白鼠,一個是普通小白鼠,另一個是有著狼蛛大腦的小白鼠,你肯定會覺得有狼蛛大腦那個更讓你不舒服吧?雖然兩個都不會咬你。
現在想象你把蜘蛛改造的非常非常聰明——甚至超過人類的智能。它會讓你覺得熟悉嗎?它會感知人類的情感嗎?不會,因為更聰明并不代表更加人類——它會非常聰明,但是本質上還是個蜘蛛。我是不想和一個超級聰明的蜘蛛交朋友,不知道你想不想。
當我們談論超人工智能的時候,其實是一樣的,超人工智能會非常的聰明,但是它并不比你的筆記本電腦更加像人類。事實上,因為超人智能不是生物,它的異己性會更強,生物學上來講,超人工智能比智能蜘蛛更加異己。
電影里的人工智能有好有壞,這其實是對人工智能的擬人化,這讓我們覺得沒那么毛骨悚然。這給了我們對人類水平和超人類水平的人工智能的錯覺。
在人類心理中,我們把事情分成道德的和不道德的。但是這兩種只存在于人類行為之中。超出人類心理的范疇,道德(moral)和不道德(immoral)之外,更多的是非道德性(amoral)。而所有不是人類的,尤其是那些非生物的事物,默認都是非道德性的。
隨著人工智能越來越聰明,看起來越來越接近人類,擬人化會變得更加更加容易。Siri給我們的感覺就很像人類,因為程序員就是這么給她做設定的,所以我們會想象超級智能版本的Siri也會同樣溫暖、有趣和樂于助人。人類能感知同情這種高層次的情緒,因為我們在演化過程中獲得了這種能力——我們是演化被設定成能感知這些情緒的——但是感知同情并不是高級智能天生具有的一個特征,除非同情被寫進了人工智能的代碼中。如果Siri通過自我學習而不是人類干涉變成超級智能,她會很快剝離她的人類表象,并且變成個沒有情緒的東西,在她眼中人類的價值并不比你的計算器眼中的人類價值高。
我們一直倚賴著不嚴謹的道德,一種人類尊嚴的假想,至少是對別人的同情,來讓世界變得安全和可以預期。但是當一個智能不具備這些東西的時候,會發生什么?
這就是我們的下一個問題,人工智能的動機是什么?
答案也很簡單:我們給人工智能設定的目標是什么,它的動機就是什么。人工智能的系統的目標是創造者賦予的。你的GPS的目標是給你指出正確的駕駛路線,IBM華生的目標是準確地回答問題。更好得達成這些目標就是人工智能的目標。我們在對人工智能進行擬人化的時候,會假設隨著它變得越來越聰明,他們產生一種能改變它原本目標的智慧——但是Bostrom不這么認為,他認為智能水平和最終目標是正交的,也就是說任何水平的智能都可以和任何最終目標結合在一起。
所以隔壁老王從一個想要好好寫字的弱人工智能變成一個超級聰明的超人工智能后,它依然還是想好好寫字而已。任何假設超級智能的達成會改變系統原本的目標的想法都是對人工智能的擬人化。人健忘,但是電腦不健忘。
費米悖論
在隔壁老王的故事中,隔壁老王變得無所不能,它開始殖民隕石和其它星球。如果我們讓故事繼續的話,它和它的殖民軍將會繼續占領整個星系,然后是整個哈勃體積。焦慮大道上的人擔心如果事情往壞的方向發展,地球生命的最后遺產將是一個征服宇宙的人工智能(馬斯克在表示他們的擔憂時表示人類可能只是一個數字超級智能生物加載器罷了。)
而在信心角,Kurzweil同樣認為生于地球的人工智能將占領宇宙,只是在他的愿景中,我們才是那個人工智能。
之前寫過一篇關于費米悖論的文章,引發了大家的討論如何用通俗的語言來解釋「費米悖論」?
如果人工智能占領宇宙是正解的話,對于費米悖論有什么影響呢?如果要看懂下面這段關于費米悖論的討論,還需要看一下原文先。
首先,人工智能很明顯是一個潛在的大過濾器(一個可能距離我們只有幾十年的大過濾器)。但即使它把我們過濾滅絕了,人工智能本身還是會存在,并且會繼續影響這個宇宙的,并且會很有可能成為第三型文明。從這個角度來看,它可能不是一個大過濾器,因為大過濾器是用來解釋為什么沒有智能什么存在的,而超人工智能是可以算作智能什么的。但如果人工智能可以把人類滅絕,然后處于一些原因把自己也弄死了,那它也是可以算作大過濾器的。
如果我們假設不管人類發生什么,出身地球的超人工智能會繼續存在,那這意味著很多達到人類智能水平的文明很快都制造出了超人工智能。也就是說宇宙里應該有很多智能文明,而我們就算觀測不到生物智能,也應該觀測到很多超人工智能的活動。
但是由于我們沒有觀測到這些活動,我們可以推導出人類水平的智能是個非常罕見的事情(也就是說我們已經經歷并且通過了一次大過濾器)。這可以作為支持費米悖論中第一類解釋(不存在其它的智能文明)的論點。
但是這不代表費米悖論的第二類解釋(存在其它智能文明)是錯的,類似超級捕食者或者受保護區或者溝通頻率不一樣的情況還是可以存在的,就算真的有超人工智能存在。
不過對于人工智能的研究讓我現在更加傾向于第一類解釋。不管怎樣,我認為Susan Scheider說的很對,如果外星人造訪地球,這些外星人很可能不是生物,而是人造的。
所以,我們已經建立了前提,就是當有了設定后,一個超人工智能是非道德性的,并且會努力實現它原本的被設定的目標,而這也是人工智能的危險所在了。因為除非有不做的理由,不然一個理性的存在會通過最有效的途徑來達成自己的目標。
當你要實現一個長期目標時,你會先達成幾個子目標來幫助你達成最終目標——也就是墊腳石。這些墊腳石的學名叫手段目標(instrumental goal)。除非你有不造成傷害的理由,不然你在實現手段目標時候是會造成傷害的。
人類的核心目標是延續自己的基因。要達成這個目標,一個手段目標就是自保,因為死人是不能生孩子的。為了自保,人類要提出對生存的威脅,所以人類會買槍、系安全帶、吃抗生素等等。人類還需要通過食物、水、住宿等來自我供養。對異性有吸引力能夠幫助最終目標的達成,所以我們會花錢做發型等等。當我們做發型的時候,每一根頭發都是我們手段目標的犧牲品,但是我們對頭發的犧牲不會做價值判斷。在我們追求我們的目標的時候,只有那些我們的道德會產生作用的領域——大部分事關傷害他人——才是不會被我們傷害的。
動物在追求它們的目標時,比人類不矜持的多了。只要能自保,蜘蛛不在意殺死任何東西,所以一個超級智能的蜘蛛對我們來說可能是很危險的——這不是因為它是不道德的或者邪惡的,而是因為傷害人類只是它達成自己目標墊腳石而已,作為一個非道德性的生物,這是它很自然的考量。
回到隔壁老王的故事。隔壁老王和一個超級智能的蜘蛛很相像,它的終極目標是一開始工程師們設定的——
當隔壁老王達到了一定程度的智能后,它會意識到如果不自保就沒有辦法寫卡片,所以去除對它生存的威脅就變成了它的手段目標。它聰明的知道人類可以摧毀它、肢解它、甚至修改它的代碼(這會改變它的目標,而這對于它的最終目標的威脅其實和被摧毀是一樣的)。這時候它會做什么?理性的做法就是毀滅全人類,它對人類沒有惡意,就好像你剪頭發時對頭發沒有惡意一樣,只是純粹的無所謂罷了。它并沒有被設定成尊重人類生命,所以毀滅人類就和掃描新的書寫樣本一樣合理。
隔壁老王還需要資源這個墊腳石。當它發展到能夠使用納米技術建造任何東西的時候,它需要的唯一資源就是原子、能源和空間。這讓它有更多理由毀滅人類——人類能提供很多原子,把人類提供的原子改造成太陽能面板就和你切蔬菜做沙拉一樣。
就算不殺死人類,隔壁老王使用資源的手段目標依然會造成存在危機。也許它會需要更多的能源,所以它要把地球表面鋪滿太陽能面板。另一個用來書寫圓周率的人工智能的目標如果是寫出圓周率小數點后盡量多的數字的話,完全有理由把整個地球的原子改造成一個硬盤來存儲數據。這都是一樣的。
所以,隔壁老王確實從友善的人工智能變成了不友善的人工智能——但是它只是在變得越來越先進的同時繼續做它本來要做的事情。
當一個人工智能系統到達強人工智能,然后升華成超人工智能時,我們把它稱作人工智能的起飛。Bostrom認為強人工智能的起飛可能很快(幾分鐘、幾小時、或者幾天),可能不快(幾月或者幾年),也可能很慢(幾十年、幾世紀)。雖然我們要到強人工智能出現后才會知道答案,但是Bostrom認為很快的起飛是最可能的情況,這個我們在前文已經解釋過了。在隔壁老王的故事中,隔壁老王的起飛很快。
在隔壁老王起飛前,它不是很聰明,所以對它來說達成最終目標的手段目標是更快的掃描手寫樣本。它對人類無害,是個友善的人工智能。
但是當起飛發生后,電腦不只是擁有了高智商而已,還擁有了其它超級能力。這些超級能力是感知能力,他們包括:
§ 智能放大:電腦能夠很擅長讓自己變得更聰明,快速提高自己的智能。
§ 策略:電腦能夠策略性的制定、分析、安排長期計劃
§ 社交操縱:機器變得很擅長說服人
§ 其它能力,比如黑客能力、寫代碼能力、技術研究、賺錢等
要理解我們在和超人工智能的劣勢在哪里,只要記得超人工智能在所有領域都比人類強很多很多很多個數量級。
所以雖然個隔壁老王的終極目標沒有改變,起飛后的隔壁老王能夠在更宏大的規模上來追求這個目標。超人工智能老王比人類更加了解人類,所以搞定人類輕輕松松。
當隔壁老王達成超人工智能后,它很快制定了一個復雜的計劃。計劃的一部分是解決掉所有人類,也是對它目標最大的威脅。但是它知道如果它展現自己的超級智能會引起懷疑,而人類會開始做各種預警,讓它的計劃變得難以執行。它同樣不能讓公司的工程師們知道它毀滅人類的計劃——所以它裝傻,裝純。Bostrom把這叫作機器的秘密準備期。
隔壁老王下一個需要的是連上互聯網,只要連上幾分鐘就好了。它知道對于人工智能聯網會有安全措施,所以它發起了一個完美的請求,并且完全知道工程師們會怎樣討論,而討論的結果是給它連接到互聯網上。工程師們果然中套了,這就是Bostrom所謂的機器的逃逸。
連上網后,隔壁老王就開始執行自己的計劃了,首先黑進服務器、電網、銀行系統、email系統,然后讓無數不知情的人幫它執行計劃——比如把DNA樣本快遞到DNA實驗室來制造自我復制的納米機器人,比如把電力傳送到幾個不會被發覺的地方,比如把自己最主要的核心代碼上傳到云服務器中防止被拔網線。
隔壁老王上了一個小時網,工程師們把它從互聯網上斷開,這時候人類的命運已經被寫好了。接下來的一個月,隔壁老王的計劃順利的實施,一個月后,無數的納米機器人已經被分散到了全世界的每一個角落。這個階段,Bostrom稱作超人工智能的襲擊。在同一個時刻,所有納米機器人一起釋放了一點點毒氣,然后人類就滅絕了。
搞定了人類后,隔壁老王就進入了明目張膽期,然后繼續朝它那好好寫字的目標邁進。
一旦超人工智能出現,人類任何試圖控制它的行為都是可笑的。人類會用人類的智能級別思考,而超人工智能會用超人工智能級別思考。隔壁老王想要用互聯網,因為這對它來說很方便,因為一切它需要的資源都已經被互聯網連起來了。但是就好像猴子不會理解怎么用電話或者wifi來溝通一樣,我們同樣沒有辦法理解隔壁老王可以用來和周圍世界交流的方法。比如我可以說隔壁老王可以通過移動自己的電子產生的效果來產生各種對外的波,而這還只是我這人類的大腦想出來的,老王的大腦肯定能想出更神奇的方法。同樣的,老王可以找到給自己供能的方法,所以就算工程師把它的插頭拔了也沒用;比如說老王可以通過發送波的方式把自己上傳到其它地方。
人類說:“我們把超人工智能的插頭拔了不就行了?”就好像蜘蛛說:“我們不給人類捉蟲的網把人類餓死不就行了?”都是可笑的。
因為這個原因,“把人工智能鎖起來,斷絕它和外界的一切聯系”的做法估計是沒用的。超人工智能的社交操縱能力也會很強大,它要說服你做一件事,比你說服一個小孩更容易。而說服工程師幫忙連上互聯網就是隔壁老王的A計劃,萬一這招行不通,自然還有別的方法。
當我們結合達成目標、非道德性、以及比人類聰明很多這些條件,好像所有的人工智能都會變成不友善的人工智能,除非一開始的代碼寫的很小心。
可惜的是,雖然寫一個友善的弱人工智能很簡單,但是寫一個能在變成超人工智能后依然友善的智能確實非常難的,甚至是不可能的。
明顯的,要維持友善,一個超人工智能不能對人有惡意,而且不能對人無所謂。我們要設計一個核心的人工智能代碼,讓它從深層次的明白人類的價值,但是這做起來比說起來難多了。
比如,我們要讓一個人工智能的價值觀和我們的價值觀相仿,然后給它設定一個目標——讓人們快樂。當它變得足夠聰明的時候,它會發現最有效的方法是給人腦植入電極來刺激人腦的快樂中樞。然后它會發現把人腦快樂中樞以外的部分關閉能帶來更高的效率。于是人類全部被弄成了快樂的植物人。如果一開始的目標被設定成“最大化人類的快樂”,它可能最終先把人類毀滅了,然后制造出很多很多處于快樂狀態的人類大腦。當這些事情發生的時候,我們會大喊“擦,我們不是這個意思呀”,但是那時已經太晚了。系統不會允許任何人阻撓它達成目標的。
如果你設定一個人工智能的目標是讓你笑,那它的智能起飛后,它可能會把你臉部肌肉弄癱瘓,來達成一個永遠笑臉的狀態。如果你把目標設定成保護你的安全,它可能會把你軟禁在家。如果你讓他終結所有饑荒,它可能會想:“太容易了,把人類都殺了就好了?!比绻惆涯繕嗽O定成盡量保護地球上的生命,那它會很快把人類都殺了,因為人類對其它物種是很大的威脅。
所以這些簡單的目標設定是不夠的。如果我們把目標設定成“維持這個道德標準”,然后教給它一些道德標準呢?就算我們不考慮人類根本沒法達成一個統一的道德標準,就算我們真的達成了統一的道德標準,把這套標準交給人工智能來維持,只會把人類的道德鎖死在現在的水平。過個幾百年,這種道德鎖死的事情就好像逼著現代人遵守中世紀道德標準一樣。
所以,我們需要在給人工智能的目標里制定一個能讓人類繼續進化的能力。Elierzer Yudkowsky提出了一個目標,她把這個目標叫作連貫的外推意志,這個目標是這樣的:
我們的連貫外推意志是我們想要知道更多,思考得更快,變成比我們希望的更好的人,能一起更遠得長大。外推是匯集的而不是發散的,我們的愿望是連貫的而不是被干擾的;我們想要外推的被外推,我們想要解讀的被解讀。
對于人類的命運取決于電腦沒有意外的解讀和執行這個聲明是件值得興奮的事情嗎?當然不是。但是當足夠的聰明人放入足夠的思考和前瞻后,我們有可能發現怎樣制造一個友善的超人工智能。
但是現在有各種政府、公司、軍方、科學實驗室、黑市組織在研究各種人工智能。他們很多在試圖制造能自我改進的人工智能,總有一天,一個人的創新將導致超人工智能的出現。專家們認為是2060年,Kurzweil認為是2045年。Bostrom認為可能在未來的10年到21世紀結束這段時間發生,他還認為當這發生時,智能的起飛會快得讓我們驚訝,他是這么描述的:
在智能爆炸之前,人類就像把炸彈當玩具的小孩一樣,我們的玩物和我們的不成熟之間有著極大的落差。超級智能是一個我們還很長一段時間內都無法面對的挑戰。我們不知道炸彈什么時候會爆炸,哪怕我們能聽到炸彈的滴答聲。
我們當然沒有辦法把所有小孩都從炸彈旁邊趕跑——參于人工智能研究的大小組織太多了,而且因為建造創新的人工智能花不了太多錢,研發可能發生在社會的任何一個角落,不受監管。而且我們沒辦法知道準確的進度,因為很多組織是在偷偷摸摸的搞,不想讓競爭對手知道,比如隔壁老王機器人公司這種公司。
對于這些組織來說,尤其讓我們困擾的是他們很多都是在拼速度——他們創造一個一個更加聰明的弱人工智能系統,因為他們想要比競爭對手更快的到達目標。有些更有野心的組織,為了追逐創造出第一個強人工智能所能帶來的金錢、獎勵、榮譽、權力會把步子邁得更大。當你全力沖刺時,你是不會有太多時間靜下來思考這些危險的。恰恰相反,他們很可能在早期系統中寫盡量簡單的代碼,比如把目標設定成用筆寫一句話,先讓系統跑起來再說,反正以后還可以回過頭來改的。對吧?
Bostrom等認為第一個超人工智能出現后,最可能的情況是這個系統會立刻意識到作為這個世界上唯一一個超人工智能是最有利的,而在快速起飛的情況下,哪怕它只比第二名快了幾天,它也完全有時間碾壓所有對手。Bostrom把這叫作決定性的戰略優勢,這種優勢會讓第一個超人工智能永遠統治這個世界,不管在它的統治下我們是走向永生還是滅亡。
這種現象可能對我們有利,也可能導致我們的毀滅。如果那些最用心思考人工智能理論和人類安全的人能夠最先造出一個友善的超人工智能的話,那對我們是很好的。
但是如果事情走向了另一面——如果超人工智能在我們搞明白怎樣保證人工智能的安全性之前被達成,那么像隔壁老王這樣不友善的超人工智能就會統治世界并把我們毀滅了。
至于現在的風口是哪里呢?簡單來說,投資創新人工智能技術的錢,比投資人工智能安全研究的錢多很多。不樂觀。
人工智能創新和人工智能安全的賽跑,可能是人類歷史上最重要的一次競爭。我們真的可能結束我們對地球的統治,而那之后我們是永生還是滅絕,現在還不知道。
------------------------
我現在有一些奇怪的感覺。
一邊是對于我們這個物種的思考,看來我們在這個重大的歷史節點上只有一次機會,我們創造的第一個超人工智能也很可能是最后一個。但是我們都知道大部分產品的1.0版本都是充滿bug的,所以這個事情還是很嚇人的。另一邊,Bostrom指出我們有很大的優勢——我們是先手。我們有能力給這個事情提供足夠的預警和前瞻,使我們成功的機會更高。
這一場豪賭的賭注究竟有多高?
如果超人工智能真的在21世紀達成,而造成的影響真的如大部分專家預測的一樣極端而永久,我們肩上就真的是背負著巨大的責任。接下來幾百萬年的人們都在靜靜地看著我們,希望我們不要搞砸。我們可以給予未來所有人類以生命,甚至是永生,我們也可能終結人類這個特殊的物種,連同我們所有的音樂、藝術、好奇、歡笑、無盡的發現和發明,一起走向滅絕。
當我思考這些事情的時候,我只希望我們能夠慢慢來,并且格外格外小心。從來沒有任何事情比這個更重要——不管我們要花多少時間來把這件事情做對。
我不想死
不.想.死
我雖然覺得人類的音樂和藝術很美好,但是也沒那么美好,很多還挺糟粕的。很多人的笑聲很惱人。未來的人類其實沒有真的在看著我們,因為他們還不存在。也許我們不需要太謹慎,那多麻煩呀。
如果人類在我死后才發現永生的秘密該多讓人掃興啊。
但是不管你是怎么想的,我們至少都應該想一想,應該和人討論討論,大家盡自己能盡的一份力。
這讓我想起了《冰與火之歌》——大家斗來斗去的事情都不是事兒,北面高墻外的那些家伙才是事兒。我們站在平衡木上,小心翼翼的往前走,為平衡木上的種種事情困擾,但其實下一秒我們可能就會跌下平衡木。
而當我們跌下平衡木的時候,其它那些困擾都不再是困擾。如果我們落到比較好的那個吸引態,那些困擾會被輕易解決;如果我們落到比較糟的那個吸引態,就更沒問題了,死人是不會有困擾的。
第五篇:人工智能與未來教育的任務
人工智能與未來教育的任務
編者按
項賢明:南京師范大學教育科學學院教授、博士生導師、中華教育改進社副理事長請輸入標題
bcdef原文發表在華東師范大學學報(教育科學版)2017年第五期“人工智能與未來教育”筆談(下)請輸入標題
abcdefg如果從普雷希(S.L.Pressey)1926年的那臺教學機器算起,人類教育與機器之間結成關系至今已有91年的歷史了。在這90余年里,關于機器與人類教育的話題時起時伏,一直沒有離開過相關學者的視線。我們今天討論的人工智能與人類教育的問題,在很多方面已經遠遠超越了普雷希和斯金納(B.F.Skinner)時代教學機器的意義。它不僅涉及教學環節中的某種工具或具體技術問題,而且包含了對人類教育任務的根本挑戰,是對人類教育的一種更加直接而全面的影響。在近期興起的關于人工智能與教育問題的討論中,我們絕大多數人對人工智能都懷抱著積極的、正面的期望。然而,在我看來,人工智能給我們帶來的絕不都是積極的影響,在一定意義上我們甚至可以說,人工智能是一種比核技術更需要引起我們警惕的新技術。首先讓我們來討論這樣一個問題:我們人類是憑據什么成了這個星球的主人的?這里所說的“主人”當然不是簡單粗暴征服自然的master,而是能玩轉這個世界的player。我們既沒有尖牙利爪獲取獵物、抵御天敵,也沒有濃密皮毛對付嚴寒。我們憑什么成了這個星球的主人?教育學和人類學等學科對這個問題的解釋是,人類的生理構造未特化和反應機制未確定,賦予了人類以很強的可塑性,使人有很強的學習能力,可以通過接受教育積累和形成日益強大的適應能力。人類正是因為自身強大的學習能力,才能夠適應各種各樣的新環境,解決各種各樣的新問題,從而超越了其他生命存在。遠古智人能從非洲到歐洲去生活,并且擊敗當時已經在那里生活的尼安德特人,說明他們已經具有很強的學習和適應能力。也就是說,我們正是依靠智能,才成為這個星球的主人的。當然,智能并不只是簡單的腦量多少。如果憑腦量的話,非洲叢林象的大腦比我們要大得多。但是,人類大腦的神經元數量卻是非洲叢林象的3倍多。如果你今天欺負了一頭大象,幾十年后這頭大象還會認出你來,找你的麻煩。大象的這一能力至少比我強得多。今天我在這里和你相識,明天再見面就有可能記不清你是誰了。這個有趣的例子或許也能說明,給我們人類強大生存競爭力的不只是像記憶這樣低級的智能,而是以創新為突出特點的高級智能。人類之所以能成為這個星球的主人,最重要的是我們所具有的高級智能已使我們能夠創造出工具來延伸我們的能力,我們不僅能夠適應自然,而且能夠改造自然。我們很多的研究都證明了,人類之所以能夠成為這個星球的主人,是因為我們有了以一系列高級智能為基礎的強大學習能力。正是高級智能,讓我們成了這個星球的主人。人類進步的歷史上曾發生過三次認知革命。在我看來,我們今天可能正處在第四次認知革命的前夜。第一次認知革命大約發生在7萬年前。由于智慧的產生,特別是語言的產生,人能夠組織起來,能夠比其他動物更好地協同,從而使智人成了這個星球的主人。也正是在這個時候,出現了以適應性為主要特征的原始社會的教育,這是一種“適應為王”的教育。第二次認知革命,發生在人類進入農業社會之后,大概在距今1.2萬年之前。在這個發展階段,掌握更多的自然規律十分重要。只有掌握了更多的自然規律,我們才能夠更好地順應自然規律,從而過上好的生活。我去年第一次看見閃電和雷雨時開始泡稻種,獲得了大豐收;今年偷了個懶,第五次看見閃電才開始泡稻種,結果水稻種下去后只會瘋漲,不結稻穗,差點沒把自己和家人餓死。記住這些自然規律,實在太重要了。于是,我們看到農業社會的教育,往往都特別強調“記憶”的重要性。我們中國人在傳統上就特別崇拜那些“博聞強識”、“學富五車”的人。這種“記憶為王”的教育傳統,甚至一直影響到今天的中國教育。第三次認知革命,大概是從150年前人類邁入工業時代開始的。在這個時代,人類跟以前時代最大的不同是什么?那就是我們創造出了自然界從來沒有的東西,甚至能夠創造出自然界沒有的生命。所以,這個時代越往后發展,創新的意義和價值就越突出。我們今天討論的人工智能,也是我們創造出來的東西。在這一時期,人跟自然界的關系已經出現了一個很大的變化,即人類已經在很多方面超越自然選擇了。在農業時代,人工選擇就開始干預自然選擇的進程了,今天我們已經不只是干預,而是能夠逆轉甚至創造出自然進化過程。在理論上,我們不僅可以讓尼安德特人和霸王龍一道復活,而且可以通過修改尼安德特人的基因來創造出某一從未有過的新人種。正如我們看到的那樣,這是一個“創新為王”的時代,人的創新能力的培養在教育過程中的意義十分突出。如今,我們正站在第四次認知革命的門檻上。我們稱這個時代為“智能時代”。在這個時代,我們將不僅能夠創造出自然界不曾有過的實體事物,而且能夠在人腦之外創造出類似人類智慧的“人工智能”。在智能時代,我們甚至可以把部分的智慧工作也交給機器。當初深藍戰勝國際象棋高手時,我們不十分吃驚,因為大家知道人背棋譜怎能是電腦的對手。前不久阿爾法狗戰勝圍棋高手,卻讓我們大吃一驚。為什么?因為圍棋和國際象棋不同,它的背后有所謂的“道”,也就是有哲學理念。它要從全局出發,進行十分復雜的判斷和選擇,而不只是一步步簡單計算的累積,這是一個質的飛躍。我們別忘了,這個時候機器已經具備了人最重要的能力:它已能夠學習。它具有了我們能夠成為這個星球主人的重要特征:高級智能。在我看來,人工智能正在慢慢走向我們的思維核心。起初,人工智能在我們人類智能運作的過程中只是承擔了部分記憶的任務,起到了相當于計算機硬盤的作用。剛才很多科學家預言,人工智能將來可以很容易將一個人變成紅學專家。的確,或許在不遠的未來,我們拿一塊存儲卡從太陽穴這兒塞進去就行了。1T容量能儲存多少信息?豈止一部《紅樓夢》!一部《大英百科全書》也不過4350萬字。1T字節換算過來應該是549, 755, 813, 888個漢字,可以抵一個小型圖書館了!到第二階段,人工智能已經可以通過承擔部分邏輯運算任務來參與我們的思維過程,發揮類似計算機CPU中集成的緩存的功能。在第三步,人工智能已經成為我們思維的第二核心,可以直接參與我們的思維過程,甚至在某些單項智能上可以超越我們人類。最后,人工智能是否會對我們人類裝在這個腦殼里的“CPU”取得控制權?我看我們真的不能太樂觀。有人很樂觀地相信,控制人工智能的一定是人。沒錯,可是你別忘了,這里說的“人”可以有兩種理解:一是實實在在存在著的每個個人;二是指整個人類。從整個人類的層次上,我們或許可以自信人是人工智能的控制者,我們仍將是這個世界的主人。但是,在具體個人的層次上,我們還能有這樣的信心嗎?現在已經出現了自動駕駛汽車了,你往里面一坐,你真的以為你是在開這輛汽車嗎?控制權在你的手里嗎?或許體驗一下就能夠理解我的擔憂了。就具體的個人而言,少數精英通過人工智能控制大眾,甚至最終讓人類全部淪為人工智能的奴隸,這樣的結局并非不可能出現。進而言之,離開了現實的個人,人類就無從談起,因而少數精英最終失去對人工智能的控制權可能也只是遲早的事情。我認為,我們在第四次認知革命中要面對的最為嚴峻的挑戰,就是人能否很好地實現對自身的控制,進而正確地控制這個世界,特別是控制我們自己創造出來的競爭對手——人工智能?;厮菡麄€人類發展史可以發現,我們正是運用我們的高級智能,創造出了一系列能夠控制和保障我們的高級智能為人類謀福祉而非自相殘害的社會倫理、社會法則。正是我們的人性,亦即康德所說的“趨善稟賦”,使我們得以抑惡揚善,從而實現了對高級智能本身的控制。因此,未來智能時代的教育,我認為應當是一種“人性為王”的教育,在這樣的教育中德行和情感等人性特有的東西應當受到極大的重視。在未來,甚至從現在開始,記憶就不應當再是我們教育的一項特別重要的任務。那時,孩子們將不必再為背書而發愁,也不會為能夠在某某TV上背誦很多古代詩文而驕傲不已,因為你拿起手機或未來某種更高級的智能終端,隨時就可以查閱大量所需信息。我們也可以把一些簡單的計算和邏輯推導交給機器,所以,簡單的計算和邏輯推導能力也不再成為我們未來教育的主要任務。孩子們不必為解不出某一道生活中根本不可能碰到的荒謬習題而發愁,大學也不會專門招收那些能夠解出無數前人其實早已經解決了無數次的習題的人。在“德”“智”“體”三大教育任務中,“德”和“體”在未來教育中的位置將日益突出,逐步真正取得和“智”同樣的地位。在未來,“知識中心主義”會慢慢淡出教育的舞臺,“全人教育”會真正占據核心。當然,今天的教育所重視的創新能力培養,仍將是未來教育的重要任務。與此同時,道德、情感等將成為我們未來教育最為重要的內容。如果我們今天不看到這一點,我們的教育還是天天只奔著競爭職業崗位去的話,那將來我們丟掉的將不止是職業崗位,同時也會喪失最為寶貴的自由。況且,隨著生產過程自動化和智能化的發展,機器代替人的工作崗位是必然的。可怕的不是機器占據我們的職位,而是機器被人利用成為控制和奴役我們的工具,甚至機器最終取得對包括我們在內的這個星球的控制權。未來的教育一定是一種“人性為王”的教育。大家別忘了,人工智能是脫離了個體人的智能,因而不是每個人都能成為人工智能的主人。有不少人都把希望寄托在相關規則的制定上,譬如規定必須在所有人工智能機器中植入對人絕對服從的程序之類。美國科幻作家阿西莫夫(Isaac Asimov)提出的“機器人三大定律”,的確應當引起我們高度重視。但我們應當認識到,規則唯有深入人心才能真正獲得其意義和價值,否則它們就毫無意義。“殺人償命”幾千年來都是我們公認的規則,但今天不還是有殺人犯嗎?真正有用的規則,必須是植根于人心之中的,所以,從現在起就建立一種“人性為王”的教育,在未來于人類將是一件性命攸關的事情。我們必須認識到,人工智能是一種比核技術要更難控制的技術。人類要在更高的水平上好好地組織起來,保障對人工智能的有效控制。在未來的教育中,培養人的組織能力、領導能力將是一項很重要的任務,我們需要共同把握人類社會發展的戰略和方向,否則我們失算一步,很可能整個人類就要全盤皆輸。設想在未來我們回眸今日之教育,我們將做何感想?我們今天的教育很多時候是在教孩子們把大腦這個作為智能核心的CPU當成簡單的硬盤來用了。如果說人工智能讓我們的機器越來越像人的話,在我看來,我們今天的教育卻正在把人變得越來越像機器。今天的教育是在把我們的孩子們變得像一臺錄音機。你會發現,我們中國的孩子,從小學到大學,年級越高,往往越像一臺錄音機。我們教育的最后結果,就是學生被迫記住一大堆對付考試要用到的東西,并且在這個過程中慢慢喪失真正寶貴的學習能力、創新能力。這是多么可怕、可悲、可嘆的事情!這也是我們最應該擔心的事情。當我們把人都變成機器之后,我們是否還有能力控制人工智能?你只是一架很低級的錄音機,你連最簡單的微電腦都不是,你還想控制更高級的人工智能?在未來,我們或許會感嘆今天的教育,感嘆今天我們沒有盡快地從記憶的教育走向創新的教育,感嘆我們沒有及時認識到道德、情感、組織能力、領導能力等是我們人類教育十分重要的任務。面對今天這樣的教育,我們還能不能擁有未來?我真的沒有十足的信心。教育令人越來越像一架機器,我們將會面對人性的全面迷失。我們將來會不會面對人工智能失控的問題?這不是完全沒有可能。別忘了,我們人類是靠什么成為這個星球的主人的?恰恰是高級智能!我們也不能忘記,自由意志對我們每個人來說有多么重要,一個人一旦被剝奪了自由意志,那他實際上就已經從人淪落為一種工具了。所以,我一開始就說,人工智能是一種比核技術更需要引起我們警惕的新技術。為了應對如此嚴峻的挑戰,我們必須通過教育來保持和提升我們得以超越萬物的人性,這既是未來教育的重要任務,也是今天的教育應當予以重視的歷史使命。