核心概念
掩碼擴散模型 (MDMs) 在語言建模方面展現出強大的可擴展性和效率,在條件生成和語言理解等關鍵任務中,其表現可媲美甚至超越自回歸模型 (ARMs)。
Nie, S., Zhu, F., Du, C., Pang, T., Liu, Q., Zeng, G., Lin, M., & Li, C. (2024). Scaling up Masked Diffusion Models on Text. arXiv preprint arXiv:2410.18514v1.
本研究旨在探討掩碼擴散模型 (MDMs) 在文本數據上的可擴展性,並評估其在語言理解和條件生成等核心語言任務中的有效性,以挑戰自回歸模型 (ARMs) 的主導地位。