大規模言語モデルの急速な進歩にもかかわらず、その巨大なサイズは従来の微調整に大きな課題をもたらしている。本研究は、特に長い入力を処理する必要がある多言語要約の分野において、パラメータ効率的な微調整手法であるLoRAの有効性を実証的に調査する。