Patchscope:語言模型隱藏表示檢查統一框架
Patchscope是一個用於檢查大型語言模型(LLM)隱藏表示的統一框架。它能解釋模型行為,驗證其與人類價值觀的一致性。透過利用模型本身生成人類可理解的文字,我們提出利用模型本身來解釋其自然語言內部表示。我們展示了Patchscopes框架如何用於回答關於LLM計算的廣泛研究問題。我們發現,基於將表示投影到詞彙空間和干預LLM計算的先前可解釋性方法,可以被視為此框架的特殊例項。此外,Patchscope還開闢了新的可能性,例如使用更強大的模型來解釋較小模型的表示,並解鎖了自我糾正等新應用,如多跳推理。