本論文では、大規模言語モデル(CodeLLM)の型推論タスクにおけるロバスト性を向上させるための手法として、活性化ステアリングを提案している。
活性化ステアリングは、モデルの中間計算(活性化)を編集することで、望ましい出力に誘導する推論時の手法である。本研究では、ミューテーション・テストからインスピレーションを得て、意味を保持したままコードを編集することで、型推論の誤りを引き起こすステアリングベクトルを構築する。
実験では、徐々に型付けされた言語であるPythonとTypeScriptの型推論タスクに適用し、最大90%の型推論誤りを修正できることを示した。さらに、PythonのステアリングベクトルがTypeScriptの型推論を、TypeScriptのベクトルがPythonの型推論を改善できることを発見した。これは、大規模言語モデルが言語横断的に型の知識を学習していることを示唆している。
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문