CLAPは、視覚言語モデルCLIPの確率的ファインチューニングを通じて、継続学習を改善する。これにより、モダリティ間の相互作用の不確実性を考慮し、既存の決定論的ファインチューニング手法を上回る性能を達成する。