本文提出了一種使用 Transformer 模型進行測度到測度插值的新方法,並證明了在滿足一定條件下,單個 Transformer 模型可以將任意輸入測度映射到任意目標測度。
본 논문에서는 트랜스포머가 임의의 입력 확률 분포를 출력 확률 분포에 매핑하는 능력, 즉 표현력을 이론적으로 분석하고, 특정 조건 하에서 트랜스포머가 이러한 매핑 작업을 효과적으로 수행할 수 있음을 증명합니다.
Transformerは、自己注意機構を用いることで、任意の入力確率測度を別の任意のターゲット確率測度にマッチングさせることができる。
線性特徵解耦方法可以顯著提高深度學習擬合非線性薛丁格方程的精度,並增強其在更廣泛邊界條件下的適應性。
This research paper theoretically explores the expressive power of Transformers, demonstrating their ability to map arbitrary input measures to target measures using a novel, constructive approach with explicit parameter choices.
선형 특징 분리(FDD) 방법을 사용하여 비선형 슈뢰딩거 방정식(NLSE)에 대한 딥러닝 모델의 정확도를 향상시키고, 더 넓은 범위의 경계 조건에 적응할 수 있는 매핑을 얻을 수 있습니다.
線形特徴分離法(FDD)を用いることで、深層学習による非線形シュレディンガー方程式(NLSE)のフィッティング精度が大幅に向上する。
Decoupling linear features in deep learning models for the Nonlinear Schrödinger Equation (NLSE) significantly improves fitting accuracy and generalization ability over purely data-driven approaches.
본 논문에서는 다중 모달 그래프 설정에서 그래프 신경망(GNN)을 확장한 그래프-튜플 신경망(GtNN)을 소개하고, GtNN의 안정성, 전이성 및 학습 알고리즘에 대한 이론적 분석을 제시합니다.
複数のグラフ構造を同時に扱うグラフタプルニューラルネットワーク(GtNN)は、従来のグラフニューラルネットワーク(GNN)よりも優れた安定性と転移学習能力を持つ。