核心概念
大型語言模型 (LLM) 可有效地用於超參數優化 (HPO),在有限的預算內,其表現可媲美甚至超越傳統的 HPO 方法,例如貝葉斯優化。
本研究旨在探討大型語言模型 (LLM) 在超參數優化 (HPO) 中的應用,並評估其在不同任務和模型上的有效性。
研究人員開發了一種方法,透過向 LLM 提供數據集和模型描述,讓 LLM 建議超參數配置,並根據模型性能迭代地改進這些配置。他們將此方法與傳統的 HPO 方法(如隨機搜索和貝葉斯優化)在標準基準測試和實際應用(如 CIFAR-10 圖像分類)上進行了比較。此外,他們還探索了使用 LLM 生成代碼來優化超參數,從而無需人工指定搜索空間。