この論文では、RNNとTransformersの表現力に焦点を当て、特にIn-Context Retrievalの問題に対する両者の能力差を明らかにしています。RNNは長いシーケンスを扱う際のメモリ効率性で知られていますが、Transformersと比較して情報の取得能力に制限があります。論文では、CoT(Chain-of-Thought)プロンプティングなどの手法を使用してこの制限を克服しようとします。具体的なアルゴリズム問題を通じて、RNNがIn-Context Retrieval問題を解決する際の制約や不足を示し、それらを補完するための手法も提案されています。
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Kaiyue Wen,X... lúc arxiv.org 02-29-2024
https://arxiv.org/pdf/2402.18510.pdfYêu cầu sâu hơn