본 연구에서는 이웃 에이전트 간 압축된 모델 차이를 기반으로 합의 단계 크기를 동적으로 조정하는 AdaGossip 기법을 제안한다. 이를 통해 통신 압축이 적용된 분산 학습 환경에서 성능 향상을 달성할 수 있다.
완전 분산형 신경망 시스템에서 모델 평균화 과정으로 인해 발생하는 분산 감소 문제를 해결하기 위한 분산 보정 모델 평균화 알고리즘을 제안한다.
분산 학습에서 통신 비용을 줄이기 위해 제안된 글로벌 모멘텀 압축(GMC) 기법은 기존 방식보다 더 높은 테스트 정확도와 빠른 수렴 속도를 달성할 수 있다.
분산 학습 시스템에서 바이저틴 노드로 인한 문제를 해결하기 위해 1-센터 및 1-평균 클러스터링을 이용한 근최적 복원력 있는 집계 규칙을 제안한다.
TACOS는 임의의 네트워크 토폴로지에 대해 최적의 집합 알고리즘을 자동으로 합성할 수 있다.
연합 학습에서 엣지 서버의 풍부한 데이터를 활용하는 것이 사용자 데이터만 활용하는 것보다 훨씬 더 유익하다. 이를 위해 세 연산자 ADMM 기반의 FedTOP-ADMM 알고리즘을 제안한다.
분할 연합 학습에서 클라이언트의 에너지 소비와 프라이버시 수준을 균형있게 유지하기 위한 최적의 컷 레이어 선택 전략
블록체인을 활용하여 분산 연합 학습 시스템의 안전성과 신뢰성을 높이는 방법을 제안한다.