ゼロショット文脈学習では、事前学習された大規模言語モデルが与えられた指示のみで課題を実行できる現象が知られている。しかし、これらのモデルは、ゼロショットタスクに対して適切に較正されていないことが知られている。この問題に対処するための最も効果的なアプローチの1つは、対照的な復号目的関数を採用することである。本研究では、機械翻訳の弱点に対処するために設計された指数関数的減衰を伴う反言語モデル目的関数を提案する。