您當前位置: 社科前沿
從機器認識的不透明性看人工智能的本質及其限度
2023-07-18 11:02:48

摘  要:當前人工智能研究中的核心理論問題之一是人工智能的“理解力”問題。對于大多數的計算模擬而言,人們無法獲得那種傳統認識論意義上的透明性。從計算科學的技術實現層面看,面對巨大而復雜的計算量,人類不可能審查全部的計算過程,這就造成了人類在認識上存在著不透明性的盲區。基于認知不透明性與認識不透明性的區分,機器認識中的不透明性會導致“理解”的缺失。從認識透明性的角度分析人對機器可能的認識把握程度及其要求,可以對機器的理解能力的本質及其限度做出相對精準和深入的探討,為人們厘清機器認識論的特征,進而理解人工智能與人類智能的本質聯系與區別,提供一條富有啟發性的路徑。

關鍵詞:認識不透明性理解計算模擬機器認識論

作者董春雨,北京師范大學價值與文化研究中心(北京100875)。

當前國內外學術前沿的熱點之一無疑是關于大數據與人工智能(AI)相關問題的全方位探討,諸如神經網絡、深度學習、算法偏見、機器倫理及機器人情感等,無不備受關注,相關的研究可謂如火如荼,人們在這些領域的認識因此也取得了長足進步。雖然上述研究內容非常廣泛,但是如果我們對AI的本質及其限度缺乏準確判斷,那么討論就只能流于表面。例如,當下有人主張“人是算法的尺度”,即人們現在已經形成了一種共識,算法不僅要追求效率,要有精度和準度,但它不是無情物,算法還要向善,要有溫度,亦即算法得彰顯人文關懷和人本情懷,算法必須“利人”而不能“損人”。人們已經清醒地認識到“應該”在算法中嵌入倫理與人本邏輯,可我們面臨的根本問題是:這樣美好的愿望到底如何才能落地?至少是原則上能不能落地的問題。前者屬于科學問題,后者則屬于哲學問題。或者說,如何在AI研究中實現把人當成人的問題等所對應的要求,前提是對AI的本質及其未來的發展趨勢的深刻理解。

其實,有關AI本質的探討從其相關研究肇始之時即20世紀50年代起就已展開,迄今已逾半個世紀,其中著名的爭論有“圖靈測試”及后來的“中文屋測試”等,并形成了符號主義、行為主義和聯接主義三條研究路徑。及至今日,學術界產生了兩大基本流派:一個是所謂的弱人工智能學派,認為機器智能永遠無法超越人類智能;另一個是所謂的強人工智能學派,認為機器智能最終將超越人類智能——特別是庫茲韋爾還給出了這一特殊時刻的時間節點即2045年,并稱之為“奇點”。有關人工智能未來的發展,人們的看法莫衷一是。澄清各種觀點的核心問題是如何看待人機的劃界問題,而完成劃界任務的根本將落實在劃界的標準上。當前學界趨向于將劃界的標準主要歸結于所謂的“理解”這一本質問題上。當然,有關“理解”本身的研究,在西方哲學史上有著悠久的傳統,它發軔于古希臘關于知識問題的思考,及至近代,洛克、萊布尼茨等都有以理解為主題的專著來闡發人類的認識能力。到20世紀初,由于人們對語言分析的關注和深入探討,隨著命題或理論的“意義”與“語境”問題等的凸顯,理解作為一種與認識相區別的認知方式,相關研究也從最初專門的語言分析角度,逐步擴展到實踐知識論的視域,即將語言、心靈和行動三個維度綜合起來探討心靈、語言、實在和行動的關系問題,在這方面尤以海德格爾、伽達默爾等提出的解釋學觀點令人矚目,他們強調理解是有關人類的各種經驗的意義的詮釋活動,是理解者與被理解者的“心靈”的交流與匯通,是認識主體籌劃自己可能的存在方式即人生何所向的實踐路徑。關于理解的這一研究角度的轉變,即從內在的心靈向度和外在的實踐向度對理解問題的研究,對于討論人—機、機—機關系問題,具有啟發意義。特別是將理解當成自身核心目標的科學哲學,自然而然地把相對更為狹義和專門的科學理解問題,引申為科學哲學領域中最重要的研究范疇之一,并出現了許多代表性的人物,如從早期的卡爾納普、亨普爾到晚近的斯蒂芬·格林(S. Grimm)和亨克·雷格(Henk W. De Regt)等,他們討論科學理解的主觀性與客觀性之間的沖突問題、語義學與語用性的復雜關系等。當然,科學理解還涉及更為復雜的情況即意會知識或默會知識(tacit knowledge)等問題。

對于“理解”問題的研究,本身已經構成一個極其完整和宏大的論域。本文不可能全面梳理有關理解問題的所有思想資源,甚至連與計算機和人工智能技術密切相連的自然語言處理、語義分析學等問題都暫時無法顧及。筆者主要從所謂的認識透明性的角度,通過這樣一個具體的切入點,分析人對機器可能的認識把握程度及要求,從而對機器的理解能力的本質及限度做出一些相對精準和深入的探討,以期為進一步理解AI與人類智能的聯系與區別,提供一條富有啟發性的路徑。所以,本文后面提到的理解概念,主要是與認識不透明性密切聯系在一起并在相對狹義的意義上使用,它的基本含義是:(1)一個認識的主體(包括人或機器即AI,下同)對認識的對象即客體(包括人或機器即AI,下同)在某一時刻t時各種狀態的了解;(2)一個認識的主體對客體在歷時過程中各個環節具體機制的把握即對因果機制的認識;(3)借助于“主體間性”的概念,在擴展認識主體內涵的前提下,將人對人的理解的討論延伸到人與機器的雙向理解以及機器與機器之間理解的論域,同時也帶來了對AI本身的群體社會性、演化性等問題的探討。

一、認知的透明性與認識的不透明性

哲學界自古以來就有一個關于人類認識的預設,即存在著一個現象領域,在這個領域中沒有什么是可隱藏的。后來的認知哲學將這一觀點系統地擴展到了心靈領域,使透明性(luminosity)成為認識論中的一個核心概念。它認為,心靈的各種狀態對于我們自身而言是自明的,即人能夠知道它的有知狀態——如果一個認知主體知道 p,那么他就知道他知道 p。我們心靈的各種狀態對于我們自身是透明的,可以有一種特殊的通道對這些狀態進行覺知,一旦心靈擁有內容,我們就能夠對這些內容有所覺知。可見認知哲學中的透明性,強調的是人的心靈與人的認識之間的“透明”關系,而且“對思維最恰當的理解,是將其視為心智中的表征結構以及在這些結構上進行操作的計算程序”。這種對人類心靈的基本理解,也被稱為心智的計算—表征理解(Computational-Representational Understanding of Mind,CRUM),它為我們理解思維與認識中的透明性提供了一個基本的參照和前提。

當然并不是所有的哲學家都默認人類認識對心靈而言是透明的,蒂摩西·威廉姆森(T. Williamson)就認為,并非我們的所有思維都是這樣的,即并非所有的思維都能夠被我們完全覺知。這意味著有很多思維的元素或形式是在我們熟悉的認識家園之外,并在不同環境中起著不可或缺的作用。威廉姆森提出了與透明性相對的另一個概念,稱為“反透明性”(opacity)。反透明性的表現其實也不難想象,比如從思維的形式來看,人的思維過程中存在著許多令人“莫名其妙”的現象,有時我們可以稱之為直覺、頓悟或靈感等。對于這類思維方法,學術界也習慣于把它們歸為“非邏輯方法”,本質上是無法做到“我知道‘我知道’” 的。一方面,前面我們提到的默會知識的問題,事實上從理論層面深化了我們對人類認知的深層結構問題的認識,即在我們認知的理性推理之下是否還有底層運作的根本機制?或者說,我們不僅知道除了明晰知識之外,還有默會知識的存在,當然我們也會關心,默會知識主要發生于意識的哪個層面,抑或是前意識甚至是無意識層面?另一方面,默會知識通常所帶有的難以名狀的技巧特征和高度的個人化色彩究竟意味著什么?它是否可以算作人類認識世界時所獲得的部分透明性的結果?關于認知的這種分層和劃界研究,也成為學界有待進一步深入研究的焦點問題之一。

在認知哲學中,人們將認知透明性理論默認為一切認識活動的前提,它與反透明、真理、知識、正負內省等之間有著復雜聯系,人們所持觀點也不盡相同,這反映在認知科學近幾十年來在相關問題的激烈爭論上。從總體上看,如果我們認為認知是透明的,那么知識的獲得可以通過心靈的反思獲得;如果我們認為認知是不透明的,那么知識如威廉姆森所言是存在限度的。可無論這些主張之間的差異有多大,它們背后關注的問題是相同的,那就是在哲學認識論意義上,人們在主客二分的前提下,不可能忽略的首先是我們自身的能力即具有智能的心靈本身的性質。這其實是人類中心主義認識論囚籠的必然結果——只有人類這樣的智慧生物才有能力去認識(客觀)世界,所以兩千多年來哲學認識論的發展,一直圍繞著人的認知能力展開,而當代所謂心靈哲學或認知哲學的研究,就是沿著這條一以貫之的道路而到達的最新階段的產物。所以,過去人們有關認識的透明性的討論,主要局限于對人類的心靈自身的反省方面,即局限于上面談到的認知透明性。這一局面的根本改變,源于“機器智能”的興起。機器智能的出現進一步拓展了認識的透明性的內涵和外延,同時也使問題變得更加復雜。

眾所周知,在近代科學革命發生之初,機器首先以望遠鏡等形式實現了對人類感覺器官的延伸。20世紀40年代以來,由于電子計算機的發明和廣泛使用,它所具有的強大的運算能力催生了一門新的科學——計算科學,其實質是人類腦力的外推和增強。特別是近20多年來,由于大數據和機器學習技術的出現,機器對人類認知能力的本質性擴展從量變進入到質變的領域。真正的人工智能技術開始成熟起來了,阿爾法狗(AlphaGo)等的誕生便是一個典型的事例。這種形勢的微妙變化,也促使人們更加嚴肅和審慎地看待人和機器主要是AI之間的關系。如何看待AI的本質遂成為問題的關鍵所在。于是,一個根本問題擺在了人們的面前:在機器智能的認知過程中是否存在著一個類似于人類認知過程中所面臨的問題,即機器認知的透明性問題?

因此,我們首先需要區分認知哲學中的透明性與計算科學中的認識透明性(transparency)概念的區別和聯系。有關機器認識透明性的研究,遠沒有認知哲學中有關與人類大腦相聯系的透明性的研究那樣歷史悠久、系統和深入。

還是在20世紀初,美國科學哲學家保羅·漢弗萊斯(P. Humphreys)曾用認識不透明性(epistemic opacity)來討論計算機模擬的特征。他認為,由于我們無法直接審視與核查計算機模擬過程中的大多數步驟,致使“核心模擬初始狀態和最終狀態間的動態關系是認識上不透明的”。后來,漢弗萊斯又對認識的不透明性給出了更加嚴格的定義:“假若認識主體X在時間t不了解與這個過程相關的所有認識論元素,那么該過程相對于主體X在t時刻是認識上不透明的。” 即“認識不透明性背后的含義是:主體不了解或無法知道與可證明特定計算步驟的有關內容”。

從上述定義不難看出,所謂的認識不透明性,已不像認知不透明性那樣,僅局限于對認識主體自身心靈性質的反省,而是著眼于認識的全過程,將認識的主體、認識的客體、認識的過程和方法等各種因素與各個環節納入到所考慮問題的范圍之內,即漢弗萊斯只是對作為一種科學方法的計算機模擬的發展做了簡單的展望就已經看到,對于大多數的計算模擬而言,人們實際上無法獲得那種傳統認識論意義上的透明性——因為從計算科學的技術實現層面上看,面對巨大的計算量,人類不可能審查全部的計算過程,這就造成了人類在認識上一定存在著盲區即不透明性。

計算機模擬和計算科學在當下已經構成了一套具備獨特意義的新的科學方法,而這些方法也為科學哲學引入了新的繞不開的問題,那就是與“計算方法”密切聯系在一起的“認識不透明性”問題。因此,其后漢弗萊斯在很多場合下,探討了認識不透明性的性質和分類等問題。

首先需要考慮的是認識的主體X及其認識能力在認識過程中所起的作用和他(它)所能達到的程度。這一部分的內容與之前的認知科學哲學的討論有許多重合之處,主要是指其對人類“心靈”的反省的部分——有關心靈的一般能力即心理認知及其機制的研究在現今早已成為認知科學和哲學中的一種流行趨勢,但由于機器認識在大數據和AI 條件下深度介入認識過程,這里的認識主體X實際上是將人與計算機和AI 包括在內的所謂綜合“智能體”(agent),而我們討論的重點則是與計算機和AI相關的內容。

其次,與認識不透明性明顯相關的另外一個方面是由認識的“外部環境問題”引起的專利問題,即某些機構出于自身利益考慮對關于人工智能等中的關鍵技術細節如代碼等進行保密,以保持競爭優勢或避免其他“公司”的惡意攻擊。從某種程度上看,這種旨在維護其商業秘密和競爭優勢的主動自我保護形式造成的不透明性,實際上是人們熟悉的技術專利壁壘,將導致競爭對手和公眾得到不透明的信息甚至是虛假信息而被欺騙。這種基于人為因素造成的不透明性是屬于非認識論層次上的,本文不做過多的討論。

最后,就當前的機器學習或AI技術而言,很大一部分內容主要體現為某種編程語言,它們在某些方面與人類語言完全不同,因此大多數人仍然無法直接使用它,目前的編寫和讀取代碼以及算法設計是一項專門技能。就像數學家比藝術家更擅長處理數,而藝術家希望在對數的認識上要想超越數學家,只能通過不斷地增加自己的數學知識儲備,直到學會了一系列特殊規則即成為另一個數學家后才能實現自己的目標。這意味著我們需要對專家與技術文盲做出區分。另外,即使作為專業人員,專家們事實上也很難避免所謂的數據偏見,即人們在收集與選擇數據時,各種偏見往往會隨著人類自身的介入而滲透在數據中,數據帶有原始性偏見;用具有偏見性的數據再去訓練算法,又會產生更深的算法偏見與算法歧視等一系列問題。總之,無論是技術專利還是技術文盲等導致的認識不透明性,都是由于認識主體知識的不足甚至是錯誤導致的,即與人類認識主體的主觀知識狀態相關,它們都不是本文討論的重點。本文討論的認識不透明性主要著眼于計算技術、算法等數字型認識客體,包括AI與人類認知維度之間的差別問題研究,當然它也與科學表征、計算主義、還原方法等傳統哲學問題密切相關。下面我們將從理論層面的本體論與認識論角度以及技術實現層面的可操作性等角度展開對該問題的具體分析。

二、機器認識的不透明性:原則與技術實現

(一)理論原則上的不透明性

理論上的不透明性與認知科學中的表征問題有著密切聯系。基于邏輯路線的機器智能發展將機器的理解力還原為符號對現實世界的表征與形式化問題,而這一問題又不得不以計算的本質問題作為理論的基點。關于計算的本質,哲學家、數學家與計算科學家等存在著不同看法,但計算主義與表征問題隨著認知科學的發展,從早一代的心理表征理論到如今4E、5E的新認知理論,又加入了身體與行為等要素的討論,相關的文獻極其浩繁。簡言之,從古希臘畢達哥拉斯的“萬物皆數”觀點起,到伽利略直接把宇宙看成是一部由數學寫成的大書,再到牛頓力學的巨大成功,從數的角度來理解世界,始終是科學認識中最基本的方法論。及至當代惠勒又提出了“萬物源于比特”的鮮明主張,同時伴隨著計算科學與網絡技術等的發展,一種新的世界觀基礎業已鑄就:人們把物質粒子看作信息模式,把物理規律看作算法,萬物都可通過算法理論而實現,即宇宙可以類比于一臺可計算的量子計算機,于是一種信息論式的科學范式自然形成。從古至今,人類一直都在追求的對世界的透明化認識,離開了數這一核心要素就無從談起。由于“數學化”具有專門化和符號化的特征,它已經順理成章地成為人們表達科學思想與理論的最主要的形式,我們也可以將這一過程及其結果稱為“科學表征”,認識的透明性因此也與科學表征密切聯系在一起:我們以一種能被人類進行明確審查、分析、解釋的方式來表示系統的狀態以及這些狀態之間轉換時所遵循的規則或規律,理論模型以及模型的每個部分都可以被明確地表征。因此,一些認知科學家、人工智能專家和哲學家對人工智能發展持樂觀的態度,堅持一種建立在還原論上的計算主義或算法主義的強綱領,認為從物理世界、生命過程到人類心智都是算法可計算的,甚至整個宇宙也完全由算法支配。但是反計算主義則對上述認識論觀點充滿了質疑:從對物理世界層級的可計算性來看,即使使用最精密的儀器,我們依然無法辨認許多物理過程,對物理過程觀察的準確度是有限的。這樣,我們就無法得出物理世界是可計算的結論。這一反駁與計算的本質是連續的還是離散的這一問題相關。

一般從現象上看計算是離散的,因為我們總是在一個數據區間內做特定運算。但是計算的連續假設認為,雖然在任何兩個連續數據值之間,可能有無限多個其他值,而且連續數據本質上總是數字,但所謂的計算過程應該可以覆蓋一個區域內的任何值,在數據之間沒有灰色地帶,計算只是在進行量的增加。也就是說,對于一個區間內的無數個數據,計算總能連續地完成。如果認為計算是連續的,那么人們原則上就必須承認一種對計算的全過程完全理解的可能性,于是理論上的認識不透明問題本質上就是個假問題。反之,如果認為計算是離散的,所測數據的準確性與擴展或外溢問題就構成了對理論的連續性與一致性的形而上學意義上的挑戰,如果物理世界的可計算性被否定了,那么作為物理世界特殊存在的機器本身的可計算性也受到這一論證的影響。而且很早就有人提出,計算科學并不能把數據當作認識論的終點,在追溯數據所承載的信息時,也仍然會遇到不透明的問題:“信息并非總能表述為二進制的數據,因此,有一種信息的概念是計算機無法觸及的。” 這也表明了,即使我們在第一層級理解計算上無限逼近于透明,在第二層級的信息獲得方面仍舊難脫更深層次的困局。當機器本身的計算本質會受到影響時,主體對它的認識也不可避免地不再具有理論透明的可能性了,計算主義強綱領在理論層級上遇到的困難演變為了機器認識論中的透明性困難。

除了與計算本身相聯系的問題之外,符號表征也牽涉到一個更為寬泛的話題即模型和實在的關系問題。

按照傳統的觀點,世界本身是一種外在于人的客觀存在,當我們去認識它時,是在運用科學的理論去說明和理解這個世界,但我們自己擁有的任何理論本質上都只能是通過建立(一組)模型來解釋和預言我們所關注到的各種現象——所謂理論模型,就是通過簡單化或理想化的方法,對某一現象進行的一種一般性的抽象的描述,比如最初力學中的質點和當今生物學中的DNA結構都是如此。所以,模型是我們和世界之間相通的橋梁。模型的性質和作用對于我們這里討論認識不透明性的理論原則就是一個繞不開的話題,因為無論是概念,還是算法,都屬于模型范疇。

模型的構建是依賴于簡單化或理想化方法的。為了能夠順利認識世界,我們通常關注的只能是事物的個別和特殊的方面——如果根據萬物普遍聯系的觀點,我們研究某一現象時要考慮到與此相關的無窮無盡的所有細節,那認識實際上是寸步難行的,因此我們有時要故意強化或者弱化現象當中的某些方面,從而在忽略現象世界中那些具體的、次要的和偶然的屬性的前提下盡量保留、揭示事物的本質特征,這一方法論在近代科學實驗和機械隔離分析方法的成功運用中已經大放異彩,同樣它也是模型方法的精髓所在。簡化或理想化即意味著“以偏概全”,科學模型不可能是對現實世界的完全描述,而只能是對現象世界的“部分描述”。

這樣,我們自然就無法要求科學理論的模型,能夠全面反映、符合它所要表征的那個對象的全部屬性和規律,那么抽象的理論模型和具體的被觀察世界的關系是怎樣的呢?實際上這個問題在科學哲學中早已有過許多專門的探討,無論是種類繁多的英美哲學,還是風格各異的歐陸哲學,給出的答案最后幾乎都歸結到一點,那就是“同構”。

所謂同構,有時又稱為同型(形)或同態,本意指的是形式上的相似性,當代數學中則被嚴格定義為一個集合中某些元素與另一個集合中的某些元素之間具有的某種對應關系。如果兩個事物之間具有某種對應關系,就可以說它們之間有一個函數成立,或者說兩者之間有一個映射關系;這類關系中最強的一種,也稱一一對應關系,即不僅每一個輸入變量值剛好有一個輸出變量值與之對應,而且每一個輸出變量值也剛好有一個輸入變量值與之對應,就稱“一一對應”。

理論模型與現實事物之間是否存在“同構”關系?對它的回答,將幫助我們從哲學本體論與認識論的角度回答科學表征的實質及其限度是什么;更進一步,才能使我們去透徹地理解認識的不透明性問題。例如,人們的感覺與知覺是否存在一種同構的關系,不僅關涉自心、他心與主體間性問題,而且也與被知覺的物理世界之間存在著可知與不可知的關系問題。雖然有人認為,“心理意象的結構對應于實際感知體的結構”,這種同構關系,打開了人類心靈通達世界的各種道路,但這種同構關系也是有局限性的,那就是“心靈”所能反映的,充其量只能是全部的現實世界的一部分內容。如何來看待這一點呢?眾所周知,古希臘哲學家普羅泰戈拉早就說過一句名言:人是萬物的尺度。過去人們對它的解讀是主觀唯心主義式的,當代哲學則從人的主體性出發強調“關系實在”的意義,它突出的是人的觀察能力的有限性:盡管借助于各種科學儀器的幫助,人類感知世界的局限通常可以獲得某種程度的突破,但最終的界限在哪里,卻仍然是一個不得而知的問題。

這樣,理論模型在感知世界的過程中所發揮的作用就清晰了起來:理論模型與被感知事物之間的同構關系是一種必要的認識論前提——人們是通過結構的等價性即同構關系來認識事物的,即客觀世界的結構可以與人們構建的理論模型的結構進行類比而被認識,同構關系因此成為科學表征的精華也就不足為奇了。它對于以計算模型和算法為基礎的機器學習或AI而言,也不能例外。

無論如何,科學模型或者科學表征是我們認知世界所依賴的重要方法。我們上面關于科學(模型)表征的離散性與連續性、簡單性與抽象性以及同構性等問題的討論,為進一步探討以計算模型和算法為基礎的AI的技術發展前景做了一定程度的澄清:從理論原則上講,理性的符號表征的方式可以為AI智力水平的提高提供充分的可能,比如就目前專門機器人阿爾法狗下圍棋所能達到的高度來看,它已經超越了人類。AI是可以基于對圍棋規則的理解通過“自我博弈”的手段,不斷在機器學習過程中提高棋藝,最終不僅在思考的速度上超過人類,而且在思維的自主創新方面也具有可能性。

也許,僅從外部實用功能的角度來定義AI的觀點來看,機器的可使用性及其有效性所能達到的高度看起來是無法限量的。但這種觀點很早就受到了人們的質疑。這一爭議的關鍵所在是人機的劃界問題,即人類智能和機器智能的本質區別到底是什么?首先,人們從一開始就對圖靈測試等類似的問題進行了廣泛的討論,至今難有定論。從目前機器學習的過程和機制來看,AI水平的提高離不開大數據技術的支撐,通常它是大量數據“投喂”訓練的結果,故有“數據是糧食”之說。

其次,機器在大數據中采集到的規律,本質上都屬于“統計相關性”,而不是事物之間前后相繼和彼此具有決定與被決定意義的因果性。雖然人們現在也在努力讓機器通過事物的相關關聯識別出其中的因果關系,但在這方面依然存在著許多難題。而且因果關系還應該從因果效應和因果機制兩方面來理解,即使A和B之間的因果效應在經驗上是可以確證的,但期間可插入的具體環節如C、D、E等機制不清楚,人們也很難說是理解了整個事件的來龍去脈。所以,因果機制作為對因果效應的“本體論”解釋,其主要含義之一是通過結構模型揭示原因導致結果的過程,這也會引申出本文所關心的認識透明性問題的另一個重要要求。如果說前面有關認識透明性的定義是某一時刻t對事物狀態的把握,那因果機制問題的提出則是從歷時的過程的角度對認識的透明性所提出的更加深入的要求,而且它也與我們前面討論的數據的連續性和全域性密切聯系。總之,如果機器無法在相關性與因果性之間做出有效區別,如果機器無法把握因果的具體機制,那么機器在“理解”世界方面就始終無法實現質的飛躍,它就永遠不可能超越人類。

再次,人類還具有不確定的“自由意志”等品質,它們也將是機器智能在發展過程中難以克服的巨大障礙,因為以符號表征為基礎的技術路徑從根本上講依然難以跳出計算主義的窠臼,通過理性主義的路徑達到非理性的彼岸,這似乎是一個悖論。這一悖論的存在也在提醒我們,那種試圖從機器智能的結構和工作機制反過來理解人類大腦的工作原理的還原論做法,雖然在神經科學的研究領域和腦機接口等技術領域已經取得了有目共睹的成績,但它最終所能達到的高度似乎是有限的。

最后,人類的認知基礎可能并不如洛克所主張的“白板說”,而是偏向于康德所說的“先驗綜合判斷”——人生下來就有某些認識和應對世界的能力,這種能力在與其他生物物種的比較中其差別也是異常明顯的,我們現在一般將這種差別概括為認識的主體性的一部分內容,其本體論基礎實際上蘊含在DNA的先天差別之中;反觀機器認知,既需數據投喂,又靠算法支撐,在認識活動開始之前,可謂白板一塊。這種認知前提的差異也許從有關碳基生命與硅基生命的比較中可以看得更加透徹。

綜上所述,我們在這里主要討論了機器智能的工作原理及其所受的若干限制,即分析了機器認識的不透明性在理論原則上的一些表現。但這僅僅是問題的一個方面,下面我們將從技術實現層面轉入對不透明性問題的討論。

(二)技術實現上的認識不透明性

如上所述,一般認為科學家在計算科學中對透明性認識的追求,意味著他們在理論原則上理解機器所做的許多嘗試。在計算科學中,我們談到不能計算A時,通常指以現在的硬軟件水平完成A很棘手,而不是原則上證明A是不可能的事。但“計算A”這樣的科學語言,在哲學使用中被誤解了。因此溫斯伯格稱“科學哲學家,錯過了為現代科學的這一爆炸性領域作出貢獻的機會,這恰恰是因為他們偏向于關注原則上的可能,而不是我們在實踐中所能取得的成就”。因此我們需要給予實操類的困難而非原則性的解決方案更多關注。技術實現上的不透明性應該是目前機器認識不透明性更需要關注的主要內容。

技術實現上的不透明性首先需要考慮的問題依然與數據本身相關。從邏輯上來講,認識的透明性意味著我們對認識對象的全方位把握,它通常也可被稱為是一種“上帝視角”。但是,盡管現在我們已經擁有了相對成熟的大數據方法——大數據的關鍵特征就在于它可以從多個維度去刻畫事物與現象,并且要求每個維度的數據要接近全樣本,所以大數據的一個要求就是多維性和完備性,但是想要獲得有關事物的所謂“全域數據”在實操層面上肯定是無法實現的:前面我們談到的“人是萬物的尺度”的論證從一定程度上就反映了關于數據的這種局限性。另外可測數據的精確性問題,顯然是與認識的透明性相關的。雖然我們前面討論數據的連續性與間斷性問題時也隱含了對這一問題的觀照,但測量的精度所能達到的實際程度對我們把握事物本質的影響自近代科學以來就是不爭的事實,這還是在不考慮像以混沌與分形為特征的內在隨機性以及量子隨機性的情況下所需要考慮的情形。總之,上述由于實際的“信息破缺”即測量數據不足所引發的認識上的不透明性與眾所周知的主觀“數據偏見”完全不同。

從算法層面上來看,人們在認識不透明性方面遇到的問題似乎更多。

1.算法的復雜層級關系帶來的不透明性問題

盡管我們可以簡單地以一種僅理解其運算邏輯的方式來實現理解機器算法的目的,但實際上,這種簡化沒有特別的用處,人類面臨的更大挑戰,是如何理解由大量簡單模塊協同工作后產生的結果。在大數據時代,一個研究往往需要分析數十億或數萬億個數據示例以及數以萬計的數據屬性,一種算法的內部決策邏輯是隨著對訓練數據的“學習”而改變的。處理大量特別是具有異構屬性的數據會增加代碼的復雜性,同時也需要使用內置于代碼中的技術和裝置來管理它,這樣的一系列過程無形中增加了對計算過程的認識不透明性。

人們在處理大數據情形時,一般會采取扁平的數據結構——如云數據常采用分布式儲存方式以執行大量的簡單運算,并可以設計邏輯規則容易理解的代碼形成算法將其聯系起來,但代碼與數據長時間相互作用會出現大量不可預測的過程,而這一過程是不完全被以人類能夠理解的可視化、理想化等方式呈現出來的,即是不可約化的。比如,現在在機器學習方面發揮重要作用的多層級神經網絡方法就意味著算法將被分成多個不同的層級,每個層級之間的關系是從量變到質變的突變或涌現關系。按照我們從復雜性的角度對系統的整體性、層次性和涌現過程與性質的研究,系統每一個層次的新質的產生都是以突變的方式完成的,對這一過程的數學分析可以利用專門的“突變論”這樣的數學工具等,而在物理機制的理解上則可以參照以“混沌”這樣的奇異吸引子所具有的分形結構為基礎的“初值敏感”特性——其最通俗的表述即為“蝴蝶效應”。總之,突變或者“混沌”行為所表現出來的內在隨機性,并不意味著它與因果分析是相互對立的。在數學家的眼里,混沌現象是不成立的——上帝如果愿意,他可以知道混沌行為的一切細節,即在上帝的眼里,混沌的本質依然是滿足嚴格的決定論模式的。當然,人永遠不可能成為上帝,所以在物理學家的眼里,混沌的不確定性在技術實現的層次上就是不可消除的。這意味著,從實操或測量精度的角度看,多層級神經網絡計算對認識不透明性的限制是難以克服的。多層級神經網絡算法對認識不透明性的另一種影響表現為它在運算過程中所展現出來的新質生成的不確定性。算法在這種意義上與“認識黑箱”無異。而圖靈獎得主杰弗里·欣頓(Geoffrey Hinton)在2014年時就把這種由算法系統自主提供的人類既無法言說、也無法意會的新型知識稱為“暗知識”(dark knowledge)。簡言之,暗知識是一種基于多層級深度學習過程自主運行而產生的結果,它形成的機制和要素是什么?其合理性從何而來?我們都不得而知,因此它對傳統認識論構成了沖擊,并促使我們認真對待這類不透明性知識的認識論價值及其意義。

總之,從算法層級上看,機器學習中大多數更深層次的協調并不一定是統計概率上的最好結果,同時如上所述,這種統計相關性也與因果性有著很大的差距,這就使人們在很多情況下無法僅靠直覺來理解這些隱含的過程,可見人類在認知尺度上的推理和語義解釋模式與機器學習中算法的復雜性之間存在著認識維度上的鴻溝。因此機器認識中的算法與模型所具有的不可避免的復雜性,表明了機器認識不是模型認識論的一種簡單疊加或延伸,這種復雜性與人類具有簡單的協同能力與協同過程的理解能力之間的不匹配關系,是認識不透明性的重要來源之一。認識不透明性的產生,除了由于機器計算的高維度特征帶來的理解障礙和不可約化問題之外,時間因素在其中也扮演著重要的角色,甚至從實操的角度看,它起到了決定性的作用。

2.計算中的時間復雜度及其影響

在計算機科學中,許多算法與計算的運行都需要考慮時間要素。時間復雜度 (time complexity)是定量描述算法運行時間的一個函數。因此在考慮某一系統的計算能力時不能只關注該系統原則上的計算量,同時還要考慮到其計算的效率。日常生活中描述完成一件事情需要多少時間,往往存在幾種類型:首先是常數時間(c),它不隨事情復雜度增加而增長;與復雜度線性相關(n),隨著復雜度增加線性增加運行時間;還有多項式時間(nc)和指數時間(cn)。后兩種情形下的計算時間,會隨著復雜度增加呈指數爆炸式的增長。當程序中多數運算過程是線性相關的時間時,并不需要十分擔心計算復雜度問題,因為只要提高算力,時間就會以可觀的速度縮短。而當計算是非線性地以多項式方式增長時,因為運算時間消耗過大,甚至趨近于無窮,我們實際上是接受不了的。因此在計算科學中,一個好的算法希望時間復雜度越低越好。如果解決一個問題需要的時間隨實例的規模成指數級增長,那么該問題被稱為是“不可操作的”。雖然不可判定性和不可計算性對于理解計算是很重要的,不過不可操作性有著更重要的影響。不可操作性即是實操中認識不透明性產生的來源之一,這個問題意味著大規模的實例無法在合理的時間內運用計算解決,雖然輸入與起始算法是簡單的,但在不同階段可能要理解的內容也呈指數級增長。這對人類有限的認知能力來說,是個無法解決的實操難題。

這樣一來,不透明性問題已經不僅僅與算力及人類認知能力有關,更與時間和空間的性質有關。即使我們可以假設,人們能用概率理論如貝葉斯法則分析不確定表征并把不確定推理的問題轉化為符號系統中的元素,從而解決理論原則方面的限制,那么此類方法仍然會遇到實操上理解的障礙。所以,技術實現上的不透明性乃是人類理解機器的不可逾越的攔路虎,它本質上就是關于時間與算力的復雜交互導致認識客體——機器本身無法成為一個完備的被認識狀態。既然囿于時間復雜度導致運行時間無限延長,計算本身無法完成,那么人類又如何去理解這個沒有終點因而也沒有答案的計算過程呢?由此可見,時間問題對于計算與理解的重要性是我們應該予以充分考慮的前提之一。

三、限度與意義

機器智能是否會真正出現仍是當代懸而未決的一個重要問題。所謂“人造意識”現在也僅僅存在于科幻電影或其他虛構形式的作品中。這一問題不僅難在具體技術的實現層面上,更難在理論路徑的正確選擇上。換言之,我們連“機器意識是什么”這樣的一階問題都沒有辦法回答清楚,又怎樣來探討“如何實現它”這樣的二階認識問題?所以,不能簡單地將“機器智能”當成人類的意識。即使作為意識的發出者,我們至今也無法確切地了解它們為何產生、如何作用、走向何處。人造意識的產生必定需要遵循嚴格的因果線索,并且要沿著有關人的意識研究之路重新返回那個人工智能的出生地。這是否同時也意味著,我們對機器認識透明性的討論,需要建立在對人的認識透明性的基礎之上?不過,如本文開頭所指出的那樣,有關人類認識透明性及人類的自我知識模型的研究在認知科學哲學中已有很多,但它們不是本文關注的重點——它們只是引出本文論題的出發點或者大的理論背景而已,因此本文在這方面沒有過多著墨。事實上,像本文在第一部分所做出的專門努力那樣,我們一方面簡練地回顧了人類認知透明性的基本內涵,另一方面則著力探討了(機器)認識不透明性與認知科學中的人類的認知不透明性之間的聯系和區別,同時強調前者是后者的擴展或延伸;另外從目前的情況看來,對人類認識自身的、單獨的形式邏輯的、功能主義的、自然主義的、神經層級的研究進路,在理論上都不是很完善,因此科學工作者才開始進行“復合路徑”的探索。這樣的情況存在,使機器智能何時超越人類智能的奇點問題實際上只能變成未來學家對技術發展的一種樂觀展望。做出上述判斷的原因,還出于以下一些考慮。

首先,認知科學家通過與人腦的類比對機器意識問題進行了深入討論,他們的普遍共識是:“理解”是智能產生的基礎;而機器的理解問題又如上文所言,由于數據增多,計算涉及更多復雜層級與過程的不可約化等,試圖完全理解機器這條道路幾乎是不可能實現的,因此“在有計算不可約過程出現的系統中,計算系統未來狀態的最有效程序就是讓系統自己演化”。像人們熟知的,自然有自己演化的規則,那么機器也有自己演化的規則,我們不能強求人類理解計算機模擬與機器認識過程中的每一個要素的影響和每一步計算的細節,計算科學對于人類主體而言,認識的不透明性或為其基本特征之一。這個問題或者也可以這樣來看待:如果人類自己對自身意識的來源尚不完全知曉——如前所述,我們是找不到自身認識的家園的,而機器智能又有自己獨立的發展路徑,即對人而言它是不透明的,那么人機智能的對應、比較的基礎是否就被消解掉了?

其次,除“理解”難題外,有研究者認為:從計算科學的視角看,沒有人工意識的出現,甚至沒有我們應該嘗試的方向,是因為那種被稱為“計算解釋鴻溝”的東西——他將計算上的解釋鴻溝定義為:“缺乏對如何將高級認知信息處理映射到低級神經計算的理解。”“高級認知信息處理”是指認知的各個方面,例如目標導向的問題解決、推理、執行決策、認知控制、計劃、語言理解和元認知,這些認知過程都可以有意識地訪問。所謂“低級神經計算”是指通過人工神經元網絡可以實現的計算類型。事實上,計算解釋鴻溝問題依然是人類意識的局部不可表征所導致的不可解釋問題——它本質上從屬于人們在心靈哲學中已經討論過的“解釋鴻溝”概念的一部分:在心靈哲學研究中人們注意到,在我們有關主觀性的心靈狀態的知識和有關客觀的物理世界的知識之間,似乎不可能找到用以連接的橋接規律(bridge law),即在這兩種知識之間,似乎存在一個無法閉合的認識論鴻溝。在心靈哲學里,這個鴻溝也被稱為“解釋鴻溝”(the explanatory gap)。它的存在意味著,我們用以描述外部世界的知識似乎不適用于描述心靈狀態。這一問題一經提出,一直是心靈哲學關注的核心議題之一,熱度至今不減。而對于人工意識的建構來說,如果這一難題無論如何是繞不過去的,那么這是否意味著與人類智能同質的人工智能的發展也是不可能的?

最后,在傳統的認識論中,由于人是認識活動中居于主動或主導地位的一方,人們將這一認識論特征也稱為“人類中心主義”的。然而隨著計算機與人工智能技術的崛起,人在認識活動中的地位已經發生了深刻變化。計算機的使用而帶來的計算方法在哲學上的新穎性,正在使人類逐步失去其在認識論中所處的中心地位。我們曾根據大數據條件下機器認識的不可替代性進一步明確了人類中心主義面臨的困境,提出解決這一問題的關鍵是要建構以機器為主體的非人類中心認識論,這在某種程度上可以消解人與機器的對立,承認機器在認識論中應有的價值。

認識論的立場從人類中心主義向非人類中心主義的轉變,使“理解”的意義和任務變得更加錯綜復雜起來。毫無疑問,“理解”的本質首先是一種“關系”,關系就意味著至少是兩者之間或以上才能發生的;其次它的核心訴求是“真”或者“正確”。就其具體表現而言,有如下兩個方面的考慮。

第一,從理解問題產生的主動的一方來講,本來它最初主要關心的是單個人本身的“自知”和“自覺”,即本文一開始就討論過的“認知科學當中的透明性問題”,這里不再贅述。

第二,就人和人之間的多認識主體的理解而言,其最重要的表現還有所謂的“他心”問題。它同樣很早就進入了人們的研究視野,例如在中國古代哲學中的表述就是莊子與惠子游于濠梁之上關于“子非魚”的那一段經典對話。這一問題的本質是一個人對他人意圖的推測與判定,當然推測與判定的前提是一個人對另一人意圖的認知和理解。及至當代哲學,它已演變成主體間性問題了。

主體間性概念的意義非常復雜,但其最基本的含義與建立在傳統西方哲學中以孤立的原子式的個體觀念基礎之上的主體性概念不同,指的是不同主體之間的群體性問題,尤其涉及的是主體與主體之間的統一性問題或“共在”問題。它在本體論與認識論方面的表現本質上是對知識的普遍性的追求,或者說是認識的個體如何擺脫自我的困境而具有普遍知識,從而在不同主體之間達成共識并進行有效和正確交流的目標。這種認識論意義上的主體間性最初仍然會鑲嵌在傳統的主客二分的本體論框架之中,但它卻在認識論方面帶來了重大的轉向,即人們從關注認知上的“主—客體”關系及這一關系中的主體性的地位等問題轉向了關注處在同一認識過程中的不同主體間的共生性、平等性和交流關系問題,所以海德格爾等人強調主體與主體之間的交往、理解即解釋的關系,強調人在解釋活動中與世界的同一性,進而使主體間性以解釋學和存在論的理論形式進入了本體論的領域。本體論意義上的主體間性主要涉及自由何以可能、認識何以可能等問題,以圖從根本上解釋人與世界的關系問題,解決人的生存問題。

可見,主體間性問題的深入討論,實際上將人們最初關注的認識的客觀性、普遍性、統一性逐步引導到關注人類不同主體之間如何通過語言交流而達到的平等與共生性,其解釋學意蘊更偏向于人與世界關系的開放性和人與人關系的公共性,這就為人對這種關系的主觀建構提供了發揮作用的可能空間,同時它也意味著這種關系將具有群體特征和動態演化特征等。應該說,包括解釋學在內的當代西方哲學在總體上與傳統的理性主義立場有了很大的差別,而且它們討論問題的重點也主要限定在人文主義的論域。但是,上述有關人的主體間性問題的討論,可以為我們拓展對人機關系和認識透明性問題的理解提供一種新的富有啟發性的理論視角。

首先,考慮機器認知介入認識過程的事實,即如今的認識主體實際上已經進入人機混合的“智能體X”時代,這將導致理解問題變得更加撲朔迷離了。從分類角度來講,理解關系內涵的復雜化已經不再局限于人際之間,而是至少將表現在三個維度上,即人與人、人與機器、機器與機器之間的理解問題上。其次,借助于上述主體間性問題研究的基本思路,在人與機器以及機器與機器之間,我們不得不考慮的更加復雜的情形是,類比于像海德格爾、伽達默爾所強調的人類通過語言對話達到交往的公共性的要求,在人機之間和機機之間同樣需要借助于明確的符號表征才能達到相互理解,但在這方面像前面提到的,由于解釋鴻溝、默會知識等問題的存在,機器想要完全理解或者達到人類的意圖,其間或有難以克服的困難,甚至在機器與機器之間,它們也很難達到統一。因為包括默會知識在內的知識的特征與相互理解的公共性都隱含著社會性及其不斷變化的可能性,這意味著即使是機器與機器之間也會遇到自身突現呈現的不確定和多樣化問題的困擾,還有機器本身社會性協同進化的需求——在這一方面,它實際上已經開辟了人工智能研究的另一個重要領域,即人們關注的對象已經不限于作為單體的人工智能,在不久的將來,我們還需要面對由單體通過合作而形成的“群體智能”——相關的研究,現在已經陸續展開,其實質是人工智能未來可能的社會化發展問題——在這一方面機器智能的成長與人類智能的發展一樣,將在與復雜社會情境的互動過程中逐步實現,這也可以看作是人工智能本身通過自組織最終形成的社會化行為對主體間性問題的擴展或延伸,從而也使理解的主體形式及其相互關系變得愈加復雜了。

以上我們討論人自身、人與人、人與機器之間的理解問題即透明性問題,除了那些理論原則之外,在人與機器關系的問題上,近些年來腦機接口技術的進步給我們思考透明性問題帶來了一些新角度。

腦機接口(Brain Computer Interface,BCI)技術指的是通過某類傳感器探測和采集腦內活動的一些信號如腦電波,再通過與傳感器聯結的計算機中的智能算法識別或解碼腦信號的含義,最終將它們編碼為外部機器如假肢、輪椅或機器人等可以理解并執行的控制命令,形成在人的身體不動的情況下由“腦控”來操縱的外部設備的運動,即達到“意念制動”或“心控外物”的行動效果。現階段該技術可以幫助因為傷病而失去肢體或感官功能的殘障人士,通過不同的腦機接口重新獲取行動或感知的能力;而在未來,它還可以進一步用于健全人獲得超常的行動和感知能力,這意味著腦機接口技術將會深刻改變人的感知和行動方式,即從根本上改變作為認識主體的人的認知活動的特性,并因可以賦予認識主體原先不能具備的某些能力甚至是某種特殊能力而使其發生某種意義上的“新進化”。

具體說來,目前的一些穿戴設備作為輔助設備可以用來幫助那些患有注意力缺陷障礙的學生改善其注意力而提高學習成績,幫助那些長期疲勞駕駛的司機克服注意力的瞬間分散而減少交通事故的發生,更有甚者,腦機接口設備可以將紅外線和超聲波信號轉換成對大腦皮質特定區域的電刺激,從而在大腦接受和處理這些信號后,使人突破了與生俱來的生物學限制而“看到”了紅外和紫外光、“聽到”了次聲波和超聲波,也就是使認識主體具備超常的感知和認識能力。與傳統的認知技術如紙筆書寫、電腦輔助設計、手機通信等在空間上與人體特別是人腦的分離和區隔不同,腦機接口與認識主體的思維器官連為一體,腦—機之間可進行直接的交互,由此自然而然就突出了兩者的相互“理解”問題。根據準確理解即透明性理解意味著兩者之間具有“一一對應”的關系,它至少包含著如下兩個方面的問題:首先機器的運作機制,基本上是以算法為基礎的邏輯與理性的過程,其意義的“一”相對來說比較簡單,雖然其中也有突現等可能;相對而言,人腦的狀態的表現就會復雜得多,特別是其中會包含情感和自由意志等許多非理性因素的影響,不難想象,從人腦到機器狀態的一一對應會遇到很多難以預見的問題。其次,從哲學上來講,解決上述問題的關鍵是還原論方法論原則的適應性和有效性問題。而在當代科學和哲學的視野中,還原論思想與方法的局限性是顯而易見的。因此,從認識透明性的要求來看,腦機接口技術能夠達到的程度是有限的。

嚴格地講,有關“記憶清除”“數字克隆”“意識上傳”等話題,都還停留在科幻等文學和影視作品當中,但就是在這樣的情況下,腦機接口技術的發展已經展現出了另一種十分誘人的前景,它就是近期受人矚目的所謂“意識上傳”現象。所謂“上傳大腦”,主要有三種類型:第一種是上傳人類完整的“心智”;第二種是上傳部分記憶,尤其是有重要意義的且不容易找回的內容;第三種是上傳信息。從腦科學和人工智能的一些研究來看,第三種情形可能更接近于目前“腦機接口”的真實狀況。如果要將每個人的大腦都克隆到機器當中或者云端,甚至還需考慮“數字人”隨信息變化、數據更新而帶來的進化,從而實現數字人的發育和永生,我們面臨的挑戰還是極其嚴峻的。

盡管“腦機接口”技術當下在許多方面給世人帶來更多的還是遐想,但它引發的問題卻令人深思。

首先,腦機接口技術意味著外部符號系統和其他認知工具可以被深度嵌入人類的認知系統之中,形成一個完整的、有機式的“耦合系統”,在這一系統中,人的肉身與技術元素之間構成了一種互為因果、相互調節的不可分割的整體,即腦機接口中的非人技術元素已經成為認知過程或認知系統的一部分,這對認知主體的心靈延展方式提出了新問題,而借助于腦機協同所實現的智能增強將使認識主體進入一種新的存在和發展狀態之中,并引發認識主體的新進化;以至于有可能出現這樣的情況:在大腦和外部設備一起完成認知任務的時候,離開了某種外部設備,該認知任務就不可能完成。那么這個外部設備與認識主體的關系是可以分離的嗎?可接下來的問題依舊是,雖然當前的腦機接口技術可以實現認知的部分功能,但頗具形而上學色彩的人機之間的認識透明性將從根本上限制認識主體的可能的延展程度,即外在的東西和內在的東西是否一定有不可逾越的本體論區別?當外在的東西對內在的東西起到替代作用時,難道它還不具有與內在的東西相同的本體論地位嗎?

其次,從當前的腦機接口技術的發展趨勢來看,機器因素所發揮的作用會越來越大,那么其終極狀態是否是“機器心靈”的誕生?即當機器部分的作用不僅僅是算力和速度的增長,而是逐步延展到能夠自主和靈活地處理一些認知問題時,它就不僅具有工具的屬性了,在一定程度上會成為擁有“心靈”的機器,從而具有了某種意義上的“主體性”,此時它能不能在形而上學意義上被看作一個有意識的實體就成為一個值得深思的問題了。

最后,如果腦機接口技術的要義還是在強調人機的融合,“人機共生”的思想強調的機器部分基本上還是在不能具備完全獨立意義上的且將受控于人腦并為人服務的裝置,那么這一發展趨勢的極限應該是本文所關注的主題,即延展后具有完整和完全認知能力并具有主體地位的純粹的AI。當然,從具有獨立認識主體地位到最終超越人類智能,也許還會經歷漫長而曲折的過程,但現在至少在認識透明性的問題上,將引導我們從人—機關系的角度轉向機—機關系的思考。

結語

本文關于人與智能機器劃界問題的討論,可以幫助我們對人工智能的未來發展做一些思考。

首先,人工智能的本質從一開始就是對人類智能的模擬,如果嚴格遵循筆者一直強調的認識論中對透明性概念的理解——只有在一個認知主體知道A時,那么“他”才知道“他”知道A——推廣到機器認識論中,機器透明性認識的合理形式就應該是:只有在作為機器認識主體的機器本身知道A,那么它才知道它知道A。這里的“知道”是對人類“理解”行為的模仿,據此,一種透明性的認識追求應是對作為機器認識主體的機器的“自我意識”而言的,明確這一點極其重要,通過本文的討論,我們才能明確機器意識的本質應該是什么,或者說現在雖然還沒有真正的機器意識的出現,但明確人類意識與機器意識之間的區別,并對機器意識在機器認識論中的作用做出界定,是有利于明確其未來發展的可能和方向的。

其次,我們前面在探討人—機關系及其在透明性問題上的表現時指出,其中存在的最根本的困難之一也許是非理性因素的表達和實現方面的問題,比如人所獨有的自由意志、靈感和情感等方面的問題,都是人工智能研究目前亟須突破的難點,有人甚至將這種鴻溝歸結為碳基與硅基之間不可約化的區別。而從某種程度上來講,機—機關系之間的理解似乎在這一點上反而簡單了一些,因為它們的工作運行機制和方式基本上是同質化的,其基礎本就屬于計算、邏輯方法等范疇之內的事情,期間的溝通聯絡無論在硬件上還是在軟件上都相對更容易一些,障礙相對更小一些,特別是在目前的人工智能技術普遍采用相對簡單的平行數據儲存與讀取結構并運行相同算法的條件下。但是當我們在考慮由機—機關系形成的復雜智能網絡問題時,除了需要注意單體人工智能內部所發生的獨特的突變即產生暗知識等導致不透明性的可能外,從前面有關主體間性若干特征的討論來看,我們還應該意識到機器群體以自組織形式出現的“協同進化”效應——這樣一個由純粹的人工智能組成的機器社會,應該具有開放性、靈活性、多樣性,這種不確定性之于認識透明性又意味著什么?它可能是我們必須面對的另一種困難。

再次,從大家常說的“人是社會關系的總和”的角度來看,除了自由意志、情感、藝術創造性等不確定的非理性因素的定量表征問題之外,人的倫理、社會情境的多樣化與復雜程度也是非分析式的和令人難以復制的,而人類的智能事實上還是一個長期的包括文化影響在內的動態生成、演化的結果,會涉及主觀的目的和動機,并與情境中的客觀條件的變化密切相關,這些并無一定之規。單拿這里所分析的單體智能機器的認識特征而言,雖然我們也會考慮到深度學習導致變化和進步的可能,但主要還是局限于形式化的計算、邏輯與理性方面的考慮,所以它與人類所能展現出的意向性、目的性、自主性等其實并不完全對等。即使考慮到未來機器群體的社會性及其自主開放和演化的可能,我們也還是可以這樣說,也許我們過高地估計了理性的力量,雖然邏輯表征等問題是AI發展的前置基礎之一。一句話,純粹的終極機器心靈之夢,還很遙遠,讓我們拭目以待。

原文責任編輯:莫斌

來源:中國社會科學網

網站所屬:玉溪市社會科學界聯合會
單位地址:玉溪市紅塔區撫仙路86號高新科技大樓A1301室
域名:http://www.blinnpr.com | Email:yxsklkyb@163.com | 電話:0877-2033863
滇ICP備17008377號-1滇公網安備 53040202000256號
日韩精品人妻系列无码专区| 亚洲午夜精品一级在线播放放| 99国产精品久久久久久久成人热| 国产精品福利一区二区| 国产精品电影在线| 亚洲午夜精品久久久久久app| 久久精品国产精品国产精品污 | 国产亚洲一区二区精品| 最新国产午夜精品视频不卡| 久久精品国产亚洲AV大全| 久久露脸国产精品| 日本精品一区二区在线播放| 精品多人p群无码| 国产在线精品一区二区在线观看 | 国产国拍亚洲精品福利| 香蕉久久精品日日躁夜夜躁| 99这里只精品热在线获取| 国自产精品手机在线观看视| 国产一区二区三区精品久久呦| 模特私拍国产精品久久| 人妻少妇精品无码专区二区| 2022国产成人精品视频人| 免费精品国自产拍在线播放| 国产精品久久久久一区二区三区| 97精品免费视频| 久久精品国产99精品国产亚洲性色| 日本精品自产拍在线观看中文| 国产精品乱码一区二区三| 2020久久精品亚洲热综合一本| 久久综合精品国产二区无码| 久久国产亚洲精品麻豆| 国产亚洲精品a在线观看| 亚洲精品视频久久久| 国产精品三级av及在线观看| 人妻精品无码一区二区三区| 日本精品视频一视频高清| 91精品久久久久| 55夜色66夜色国产精品| 99视频都是精品热在线播放| 一本一道久久精品综合| 久久99热精品这里久久精品|