close
作者:Walid Saba
翻譯:歐陽錦
校對:黃衍楠

本文約2500字,建議閱讀8分鐘

本文討論了符號邏輯對人工智能研究的意義。


標籤:符號邏輯,人工智能



泛化和高級表示

著名的機器學習(ML)研究者Yoshua Bengio,也被認為是深度學習(DL)的教父之一,他最近被引述說:

現在的深度學習在感知方面取得了巨大的進步,但它還沒有在能夠發現高層次表徵的系統上取得成果,也就是我們在語言中使用的那種概念。人類能夠利用這些高層次的概念,以強大的方式進行概括。這是連嬰兒都能做到的事情,機器學習卻非常不擅長。

Bengio的診斷是正確的。在著名的三人組(Geoff Hinton、Yoshua Bengio和Yann LeCun)中,與Hinton的 "很快深度學習就能做任何事情"相反,Bengio已然持更開放的態度去討論DL的局限性。但是Bengio仍然堅持認為,DL範式最終可以在不訴諸符號和邏輯推理的情況下進行高級推理。

DL極端主義者在承認符號和邏輯推理(S&LR)時遇到的問題是,這將使神經網絡成為只是可用於感知和模式識別等低層次任務的工具之一,而S&LR將擁有模擬類似人類的高層次推理的高等級地位,即我們在面對複雜問題時解決任務、語言理解等方面使用的那種高層次推理。

因此,任何把思維看作神經網絡的人都不會承認對符號和邏輯推理(S&LR)的需要。但是,如果他們現在不接受這一事實,最終他們也會接受的——如果他們承認對那種讓我們得以 "以強大的方式進行概括"的抽象概念的高級表徵的需要,而顯然Bengio確實承認了。

但沒有邏輯概括就沒有基本事實的學習

在之前的一篇文章中,我討論了自上而下學習(相對於從數據自下而上學習)的可能性:通過實例化先天(形而上學)模板,因為否則就很難解釋兒童沒有花費時間從數據中學習這些模板,就在早期就知道基本的天真常識性物理學(naïve commonsense physics)。作為一個例子,我使用了LocatedIn模板。這個模板的邏輯可以用下面的圖片來描述。


因為他的棒球手套在他的公文包里,所以湯姆知道如果他把公文包放在他母親的SUV里,他的棒球手套的位置也是他母親的SUV的位置。他還知道,如果他們開車去紐約的伍德斯托克,那麼他的棒球手套現在就在紐約的伍德斯托克,等等。

正如我們之前所討論的,假設一個孩子從觀察/數據中自下而上地學習上述模板的邏輯是非常奇怪的。有很多技術上的原因可以解釋為什麼這是一個奇怪的假設,但我們在此指出,這種自下而上/數據驅動的對這些(常識)幼稚的物理學模板的學習有兩個非常關鍵的問題。(i) 這篇論文遇到了一個循環性問題,因為在學習LocatedIn模板的邏輯時,人們需要已經學習了(例如)ContainedIn模板的邏輯,而這又可能遞歸地假定已經知道LocationIn模板;(ii) 如果這些模板是自下而上學習的(因此是單獨學習的),我們有可能學得不同,但由於我們不被允許學得不同,它們不可能是個人觀察(或經驗)的結果。

但現在暫且擱置"一切都從數據中自下而上地學習 "的觀點的所有問題,我想在這裡集中討論這個簡單模板的邏輯。顯然,孩子不是在數據/實例層面上學習這個模板(棒球手套/公文包;公文包/SUV,然後SUV/紐約州......)而是在一個更高的層面上;即physicalObject-containedIn-physicalObject。沒有什麼可以解釋一個孩子是如何快速地意識到這個模板的邏輯的(如果一個孩子從對實例的觀察中了解到這一點,他們將花費一生的時間來學習這個基本的常識性物理事實)。

那麼,這樣一個模板的邏輯是如何學習的呢?一個建議是,它是自上而下而不是自下而上學習的:有描述我們生活的世界的物理模板,孩子「學習」這些常識性事實所需要的只是實例化一些先天模板次。上述具體模板的邏輯可以描述為:


作為另一個簡單的例子,孩子也會很快學會把某個椅子,比如說chair1,塗成紅色,從而得到Color(chair1, red)這一事實。但是,一旦這個模板被實例化,孩子就不需要看到door2 塗成白色,就知道會產生Color(door2, white);也不需要看到car100塗成黃色,就知道會產生Color(car100, yellow)。孩子學會了對代表概念的更高層次符號的量化概括:


孩子通過看到大量塗有不同顏色的物體,自下而上地從數據中學習上述模板,這一點根本不靠譜。如果沒有其他合理的解釋來說明孩子如何如此迅速地"學會 "這些常識性的物理事實,我們認為這種普遍的模板的邏輯是與生俱來的,孩子通過寥寥幾次實例化模板,自上而下地迅速學會了這些事實。如果這個說法是正確的,那麼它唯一可能發生的方式就是對符號進行量化--這些符號代表了整個類別而不是具體的實例(例如,位置、物體、顏色等)。在沒有量化和符號邏輯的情況下,似乎沒有合理的解釋,這種類型的概括和學習是如何在自下而上/數據驅動的方法中發生的。

沒有邏輯概括就沒有語言的學習

除了常識性的形而上學事實,對代表高層次概念的符號進行量化是對兒童如何學習語言的唯一合理解釋。當一個孩子聽到(和理解)諸如以下的句子時


然後孩子會知道,任何人類都可以成為愛的媒介,而他們愛的對象可以是任何實體。因此,孩子會理解或產生任何具有以下結構的句子。


這是一個給潛在無限數量的句子的模板,因為愛的媒介可以是任何人類,而愛的對象可以是任何實體(人類,如瑪麗或隔壁的男孩;或像彈吉他這樣的活動!)。因此,孩子所學到的是對某一類型/類別的符號進行量化的規則。下面是上述模板的一些實例。


同樣,關於兒童如何非常迅速地學習這些模板的唯一合理解釋是,兒童"掌握"了一個高級模板,而這個模板只有在代表高級概念的符號(寬泛地說,代表特定類型的符號)上通過量化來定義,才能被正確實例化。

Bengio和對能用高級表徵進行概括的人工智能的追求

Bengio是正確的,"人類能夠使用這些高級概念以強大的方式進行概括",ML/DL "還沒有提供能夠發現高級表徵(我們在語言中使用的那種概念)的系統"也是正確的。但他的說法,如果我們堅持自下而上/數據驅動的範式,排除其他任何範式,就可以獲得這種概括,是錯誤的。他認為,在不承認對符號的邏輯量化(符號的範圍/代表高級概念)的情況下,我們可以做到兒童早期掌握的那種概括和概念化,也是錯誤的。還要注意,有些符號又可以用複雜的句法結構來定義。請考慮以下情況:

(1) "戴着黑色AC/DC帽子經常來這裡的高個子男孩"
(2) "約翰"

雖然(1)是一個複雜的名詞短語,但從語義上講,(1)和(2)都是同一類型的對象,即一個人!

數據是很重要的。而在數據中尋找重要的相關性也很重要並且有很多有用的應用。但是認知,特別是人類層面的認知,遠不止是觀察數據中的一些模式。儘管有着被誤導的炒作和媒體的狂熱,到目前為止,沒有任何合理的理論可以證明人類能夠進行的那種高級推理可以擺脫符號推理。

順便說一句,我在這篇文章中沒有說過任何至少從20世紀80年代初就已經觀察到的、支持和證明過的東西。閱讀Jerry Fodor將是一個好的開始--因此,也許現在是時候以開放的心態重新閱讀人工智能和認知科學了?

Andrew Gordon 和Jerry Hobbs關於如何將常識形而上學形式化的重要參考資料

原文標題:

AI Cannot Ignore Symbolic Logic, and Here’s Why

原文鏈接:

https://medium.com/ontologik/ai-cannot-ignore-symbolic-logic-and-heres-why-1f896713525b

編輯:於騰凱

校對:林亦霖


譯者簡介



歐陽錦,一名在埃因霍溫理工大學就讀的碩士生。喜歡數據科學和人工智能相關方向。歡迎不同觀點和想法的交流與碰撞,對未知充滿好奇,對熱愛充滿堅持。

翻譯組招募信息

工作內容:需要一顆細緻的心,將選取好的外文文章翻譯成流暢的中文。如果你是數據科學/統計學/計算機類的留學生,或在海外從事相關工作,或對自己外語水平有信心的朋友歡迎加入翻譯小組。

你能得到:定期的翻譯培訓提高志願者的翻譯水平,提高對於數據科學前沿的認知,海外的朋友可以和國內技術應用發展保持聯繫,THU數據派產學研的背景為志願者帶來好的發展機遇。

其他福利:來自於名企的數據科學工作者,北大清華以及海外等名校學生他們都將成為你在翻譯小組的夥伴。

點擊文末「閱讀原文」加入數據派團隊~


轉載須知

如需轉載,請在開篇顯著位置註明作者和出處(轉自:數據派ID:DatapiTHU),並在文章結尾放置數據派醒目二維碼。有原創標識文章,請發送【文章名稱-待授權公眾號名稱及ID】至聯繫郵箱,申請白名單授權並按要求編輯。

發布後請將鏈接反饋至聯繫郵箱(見下方)。未經許可的轉載以及改編者,我們將依法追究其法律責任。



點擊「閱讀原文」擁抱組織


arrow
arrow
    全站熱搜
    創作者介紹
    創作者 鑽石舞台 的頭像
    鑽石舞台

    鑽石舞台

    鑽石舞台 發表在 痞客邦 留言(0) 人氣()