本文介紹了一個名為 Purrfessor 的多模態 AI 聊天機器人,它利用微調的 LLaVA 模型和以人為本的設計原則,提供個性化的飲食指導,並探討了其在提升用戶參與度和滿意度方面的有效性。
Astro-HEP-BERT 模型通過在大量天體物理學和高能物理學文本數據集上進行訓練,可以有效捕捉科學概念的語義,為科學史、科學哲學和科學社會學研究提供新的 quantitative 方法。
大型語言模型 (LLM) 的表示法可以用於有效地執行知識檢查任務,從而提高檢索增強生成 (RAG) 系統的可靠性和有效性。
FuseGPT 是一種新的結構化剪枝方法,透過將冗餘的 Transformer 模塊融合到鄰近模塊中,在減少模型大小的同時,最大限度地保留模型效能。
本文旨在探討大型語言模型在模擬、輔助和增強人類認知和行為方面的能力,並分析其在個人和集體層面的應用,同時指出其面臨的挑戰和未來發展方向。
大型語言模型展現自動化與增進質性分析的潛力,但仍面臨挑戰,需整合人類專業知識、提升模型穩健性並精進評估方法。
LLaSA 是一種透過將結構化資料轉換為超圖並將其表徵整合至大型語言模型 (LLM) 中,以增強 LLM 處理結構化資料能力的框架。
在有限的計算資源下,針對基於預訓練解碼器語言模型的文本嵌入模型,探討如何通過模型大小、數據量和微調方法的最佳組合,實現高效的對比性微調訓練。
Marco-o1 模型透過結合思維鏈微調、蒙地卡羅樹搜尋和創新的推理策略,提升大型語言模型處理複雜、真實世界問題的能力,特別是在缺乏明確標準和難以量化獎勵的開放式領域。
文章介紹了一種利用微調後的 BERT 嵌入技術構建輕量級安全防護欄的方法,用於過濾大型語言模型的不安全輸入,並與現有的大型模型相比,在保持性能的同時顯著降低了模型大小和延遲。