Large language models (LLMs) can leverage self-correction to improve their alignment and performance on tasks like mitigating social bias and defending against jailbreak attacks, particularly when equipped with accurate self-criticism mechanisms.
訓練資料中包含受版權保護內容的大型語言模型,在生成文字時,其輸出內容在版權合規性方面存在顯著差異,需要採取特定措施來減輕潛在的侵權風險。
대규모 언어 모델(LLM)은 방대한 데이터 학습 과정에서 저작권이 있는 자료를 무단으로 재생산할 수 있으며, 이는 저작권법 위반 가능성을 내포하고 있습니다. 본 연구는 LLM의 텍스트 생성 능력과 저작권 준수 간의 관계를 분석하고, 다양한 LLM 모델의 저작권 준수 수준을 평가합니다.
大規模言語モデル(LLM)は、著作権で保護されたテキストをどの程度再現するか、また、モデルやデータセットによってその程度がどのように異なるかを体系的に調査した結果、LLMの著作権遵守には大きなばらつきがあり、モデルの規模が大きいほど潜在的な著作権侵害の件数は増加する傾向にあるが、著作権遵守の特異性については、必ずしも規模と相関関係があるわけではないことが明らかになった。
Large language models vary significantly in their tendency to reproduce copyrighted text, and while model size generally correlates with higher memorization, targeted finetuning and specific design choices can significantly improve copyright compliance.
本文提出了一種名為 LINK2DOC 的新型鏈路預測框架,該框架通過將局部圖拓撲和語義信息轉換為結構化文檔,並利用自監督學習將大型語言模型的文本理解能力遷移到圖神經網路中,從而有效地解決了文本邊緣圖上的鏈路預測問題。
본 논문에서는 텍스트 에지 그래프에서 링크 예측을 수행하기 위해 그래프 토폴로지 정보를 유지하면서 노드 간의 관계를 요약하는 새로운 프레임워크인 LINK2DOC를 제안합니다.
LINK2DOC, a novel framework, leverages the strengths of both language models (LLMs) and graph neural networks (GNNs) to improve link prediction accuracy on textual-edge graphs by transforming local graph topology and semantic information into a structured document and using it to guide GNN training in a self-supervised manner.
該文提出了一種新的學習方法,用於在非線性神經動態系統中學習可驗證的安全控制策略,同時最大限度地提高整體性能,並通過課程學習、增量驗證和初始狀態相關控制器等技術,成功地將可驗證的安全範圍擴展到比現有方法大一個數量級。
본 논문에서는 비선형 신경망 동적 시스템에서 검증 가능한 안전 제어 정책을 학습하는 새로운 접근 방식을 제안하며, 이는 유한-수평 도달 가능성 증명의 의미에서 안전성을 달성하고, 전체 성능을 극대화하는 것을 목표로 합니다.