本文提出了一種名為 TRON 的雙步驟框架,用於控制和評估多模態大型語言模型 (MLLM) 的風險,適用於任何支援在開源和封閉環境中進行取樣的 MLLM。
本文提出了一種基於固定深度的廣義前綴和後綴符號回歸文法,並比較了五種啟發式搜索策略(暴力搜索、蒙特卡洛樹搜索、粒子群優化、遺傳規劃和模擬退火)在該文法下的性能表現,發現表達式樹的平均每層節點數與前綴和後綴的相對性能之間存在較強的相關性。
本文提出了一種推廣的隨機平滑化框架,用於對不可微分的黑盒函數進行微分和梯度估計,並探討了多種降低梯度估計方差的策略,並在多個機器學習任務中驗證了其有效性。
本文提出了一種基於異構圖自動編碼器的信用卡詐欺偵測模型,該模型利用圖神經網路和注意力機制來學習複雜的交易模式,並通過重建誤差來識別潛在的詐欺行為。
本文提出了一種基於半非平衡最優傳輸(SUOT)的新方法,用於計算高斯分佈的魯棒重心,並證明了該方法在存在異常值的情況下比傳統的 Wasserstein 重心方法更具魯棒性。
本文提出了一種名為主動傅立葉審計器 (AFA) 的新型模型審計框架,它利用傅立葉係數來估計黑盒機器學習模型的分佈特性,包括魯棒性、個體公平性和群體公平性。
大型語言模型的去學習技術旨在移除特定內容,同時保留模型的整體性能,本文探討了非目標式和目標式去學習方法的挑戰,並提出了基於最大化熵和答案保留損失的改進方案,以提升去學習效果並減輕模型過度遺忘的風險。
本文提出了一種新的弱監督點雲語義分割方法,通過約束特徵空間的分佈來提供額外的監督信號,並設計了一個分佈引導網絡 (DGNet) 來實現這一目標。
打包技術在監督式微調中,對於大型模型和資料集的訓練效率和效能提升有顯著效果,但需根據資料集特性和模型大小選擇合適的打包策略。
本文提出了一種名為複合學習單元 (CLU) 的新型學習架構,旨在克服傳統機器學習模型(特別是大型語言模型)的靜態學習範式限制,通過動態知識管理和持續的回饋機制,將其轉變為能夠進行廣義化、持續學習的自適應推理器。