[大衛選讀] 去年底的 AI 熱潮開始後,我就一直在找關於人工智能發展的基礎原則。若能看懂大的原則跟方向,後面要做自我技能的發展,或是特定的投資決策,都會比較容易些。
On some first principles of intelligence 這篇文章,試著寫出了智能的幾個第一性原則,並且用此對比人工智慧的發展。
文中提到了如何建立資訊反饋機制 (feedback mechanism)、善用電腦在儲存與計算上的巨大優勢、以及怎樣發展泛化能力 (generalization capability) 等概念,非常具啟發性。
原文是一篇很簡短,但有點硬的文章。為了讓自己讀懂,我額外讀了不少相關資訊,再擴寫成以下的重點摘要。
內容整理如下,原文連結:https://www.lesswrong.com/posts/oJzHEYL9ztgMwsze9/on-some-first-principles-of-intelligence

關於智能的第一性原則
過去十年中 AI 研究的進展和成功,似乎都可以追溯到上世紀所發現的一些關於智能本質的基本原則。以下就來細談這幾個可以視為是智能的第一性原則,以及這些原則對於 AI 人工智能發展的影響。
由 Robert Wiener 提出的反饋機制 (Feedback mechanism)
一般來說,反饋 (feedback) 是對於資訊迴路的抽象描述,目的是在確保一個系統能夠持續地改善與調適 (improvement/adaptation)。
在真實世界裡,人類和動物都需要收到反饋,以便提高做某件事情的技能水準。同樣的,一個產品或技術,也需要來自於外部環境的反饋資訊,來逐步改進以達到一定的可用性。
我們可以這樣說,任何有用的自動化系統,本身都是封閉迴路的反饋系統 (closed-loop feedback system)。系統會監控輸出,並且用來調整輸入;藉由不斷地回饋本身的狀態,來自行調整運作效能。
從這個角度來看,那些沒有反饋機制的自我監督機器學習,像是設定了很多規則去模擬但卻沒有真實上路的自駕系統,發展到最後並不能產生令人滿意的結果,那就一點也不意外了。因為這樣的系統,缺乏來自於外部環境對於表現好壞的反饋。
這些資訊是非常必要的,可以用來改進跟修正。
從這個角度來看,一個 AGI 通用人工智慧必須要能夠自主與環境互動,透過觀察去收集動作之後的反饋,並通過某種機制去持續地整合所得資訊,進而改寫優化自身的程式碼。
由 Rolf Landauer 提出的蘭道爾原理 (Landauer’s Principle)
Landauer’s Principle 把資訊熵 (information entropy) 與熱力學的熵 (thermal dynamics entropy),巧妙地連結在一起。兩者同樣都遵循熱力學的第二定律。這個原理認為,當你刪除一個位元的資訊時,會有對應的能量被釋放到環境中,也就是變成熱能。資訊處理和能量消耗之間是密不可分的。
熵在這裡可以被視為一個對不確定性 (uncertainty),或混亂程度 (disorder) 的度量。在人工智能領域中,降低熵就意味著減少不確定性、提高模型的預測能力或效能。
如果一個演算法被放在封閉系統裡,沒有來自外部環境的資訊反饋,像是加入更多的新數據或是人類的知識,它將無法學習或適應新的狀況。它的智能水平或是預測能力將無法提昇,熵也就不會降低。
目前最常用的反饋方法是,利用工程師自己的理解和判斷,來優化和改進機器學習模型。然而人類的思考速度和處理能力相對較慢,而且可能受到先入為主的偏見影響。隨著數據和模型規模的增長,單單只靠人類工程師的大腦來反饋和優化,可能會變得越來越不切實際。
閱讀全文 關於智能的第一性原則,以及對於 AI 人工智能發展的影響