本文探討了大型語言模型(LLM)的計算能力,並將其與擴展教會-圖靈論題(ECTT)進行了比較。
首先,作者證明了固定(非自適應)的LLM在輸入限制內與確定性有限狀態轉換器在計算能力上是等價的。這表明LLM的基礎計算能力相當於一個非常大的確定性有限狀態轉換器。
接下來,作者展示了如何用LLM模擬受空間限制的圖靈機。這需要調整LLM的詞嵌入機制,使其能夠處理圖靈機計算的"語言"。這個模擬也揭示了模擬圖靈機的空間複雜度與LLM使用的詞嵌入大小之間的相互依賴關係。
最後,作者利用前述的洞見,設計了互動圖靈機搭配建議(ITM/A)與演化LLM譜系之間的相互模擬。這表明演化LLM譜系擁有超越圖靈機的計算能力。因此,在這種計算模型中,知識生成通常是一個非算法性的過程,無法由滿足經典教會-圖靈論題的計算機實現。
作者還討論了擁有驚人知識生成能力的(非常)大型有限狀態系統的特點、局限性,以及LLM帶來的人工智能範式轉變的影響。
翻譯成其他語言
從原文內容
arxiv.org
深入探究