이기종 메모리 제약을 가진 클라이언트를 위해 LoRA 레이어 할당을 최적화하여 효율적인 FedFM 미세 조정을 수행하는 Fed-piLot 프레임워크를 제안한다.
GPUメモリ制約のある異種クライアント環境下でのFederated Foundation Model(FedFM)のファインチューニングにおいて、LoRA層の割り当てを最適化することで、効率的かつ効果的な学習を実現できる。
Fed-piLot optimizes Federated Foundation Model fine-tuning on heterogeneous clients by intelligently assigning trainable LoRA layers based on individual client memory capacity and layer importance, significantly improving efficiency and performance.