모바일 AI 가속기의 등장으로 지연에 민감한 애플리케이션이 클라이언트 측에서 경량 심층 신경망(DNN)을 실행할 수 있게 되었지만, 중요한 애플리케이션은 강력한 모델이 필요하며 엣지 장치에서 호스팅할 수 없기 때문에 요청을 오프로드해야 한다. 이 연구는 DNN 계층을 장치 간에 분할하는 대신 지역 리소스를 기계 해석 가능성을 위해 최적화된 변분 압축에 집중하는 것을 제안한다.
본 논문은 RIS와 협력 전송을 활용하여 모바일 엣지 컴퓨팅 시스템의 계산 효율을 극대화하는 방법을 제안한다. 사용자 연결, 수신/하향링크 빔포밍 벡터, 사용자 송신 전력, 로컬 계산 및 오프로딩을 위한 작업 분할 전략, RIS의 상향/하향링크 위상 천이를 결합하여 최적화한다.
동적 환경에서 엣지 컴퓨팅 디바이스의 시간 변화하는 계산 능력을 고려하여 사용자 경험을 향상시키기 위한 딥 강화 학습 기반의 태스크 그래프 오프로딩 전략
모바일 엣지 컴퓨팅 서버에 애플리케이션을 배치하는 문제는 많은 서버, 사용자 및 요청을 포함하는 복잡한 과제입니다. 기존 알고리즘은 상당한 불확실성 시나리오가 있는 고차원 문제를 해결하는 데 오랜 시간이 걸립니다. 따라서 모든 기술적 제약 조건을 고려하면서 서비스 품질을 최대화할 수 있는 효율적인 접근 방식이 필요합니다. 이러한 접근 방식 중 하나는 기계 학습으로, 엣지 서버에서 애플리케이션 배치에 대한 최적의 솔루션을 모방합니다.
모바일 엣지 컴퓨팅 서버에 애플리케이션을 배치하는 문제는 많은 서버, 사용자 및 요청을 포함하는 복잡한 과제이다. 기존 알고리즘은 상당한 불확실성 시나리오가 있는 고차원 문제를 해결하는 데 오랜 시간이 걸린다. 따라서 모든 기술적 제약 조건을 고려하면서 서비스 품질을 최대화할 수 있는 효율적인 접근 방식이 필요하다. 이러한 접근 방식 중 하나는 기계 학습으로, 엣지 서버에서 애플리케이션 배치에 대한 최적의 솔루션을 모방한다.
제안된 기법은 올-페이 경매 모델을 기반으로 하여 엣지 클라우드의 이윤을 극대화하고 모든 사용자가 서비스를 받을 수 있도록 보장한다.