本文提出了一種名為基於實例的個性化相似性 (IBIS) 的新方法,利用認知模型來衡量人類和 GPT-4 生成文本之間的主觀相似性,並通過將其應用於網路釣魚郵件識別任務,證明了 IBIS 在個性化學習環境中的有效性。
大型語言模型(LLM)在理解 DL-Lite 本體論的語法方面表現出色,但在理解語義方面存在局限性,特別是在處理涉及否定包含传递规则和大型 ABox 的任務時。
Paramanu 語言模型家族,專為印度語言設計,展現了在資源有限的情況下,透過創新的架構設計、高效的標記化方法和針對性的訓練策略,可以實現高品質的文本生成和語言理解能力。
LLaMP 是一種多模態檢索增強生成框架,它利用分層推理和行動代理與材料項目數據庫和其他資源交互,以實現高保真材料知識檢索和提取,有效減輕大型語言模型的幻覺現象,並促進材料信息學的探索和規模化。
TAP4LLM 是一種用於大型語言模型 (LLM) 的預處理器套件,旨在通過對表格數據進行採樣、增強和打包,來提高 LLM 在表格推理任務中的效率和準確性。
本文介紹了一種稱為激活工程的新方法,通過干預語言模型內部激活值來引導模型輸出,並提出了一種名為激活添加 (ActAdd) 的具體技術,該技術在不影響模型整體性能的情況下,有效控制文本的情感和主題。
透過限制詞嵌入空間中的特徵維度,可以提升 AI 生成文本檢測模型在跨領域和跨生成模型情境下的穩健性。
針對低資源印尼語的機器翻譯, NusaMT-7B 模型透過單語預訓練、監督式微調、資料清理和反向翻譯等技術,顯著提升了翻譯品質,尤其是在翻譯成低資源語言(如巴厘語和米南佳保語)方面表現出色。
雖然微調可以提高大型語言模型在道德模糊情境下的判斷能力,使其更接近人類的道德判斷,但這些模型在處理複雜的道德困境時,仍存在校準和一致性的問題,需要進一步的研究和改進。
基於語言學特徵選擇語言子集進行多語言指令微調,可以提高模型在各種自然語言處理任務中的跨語言效能。