この論文では、RNNとTransformersの表現力に焦点を当て、特にIn-Context Retrievalの問題に対する両者の能力差を明らかにしています。RNNは長いシーケンスを扱う際のメモリ効率性で知られていますが、Transformersと比較して情報の取得能力に制限があります。論文では、CoT(Chain-of-Thought)プロンプティングなどの手法を使用してこの制限を克服しようとします。具体的なアルゴリズム問題を通じて、RNNがIn-Context Retrieval問題を解決する際の制約や不足を示し、それらを補完するための手法も提案されています。
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Kaiyue Wen,X... a las arxiv.org 02-29-2024
https://arxiv.org/pdf/2402.18510.pdfConsultas más profundas