予測符号化ネットワークとターゲット伝播といった局所学習手法に対して、無限幅における安定した学習を実現するパラメータ化 (µP) を導出し、その特性を解明した。
本文提出了一種基於自適應神經網路的基函數方法 (ANNB),用於求解具有低正則性解的偏微分方程式 (PDE)。
This research paper investigates the stable parameterization of local learning algorithms, specifically Predictive Coding (PC) and Target Propagation (TP), in the infinite-width limit of neural networks, revealing unique properties and highlighting their potential for large-scale deep learning.
저규칙 솔루션을 갖는 편미분 방정식을 풀기 위해 얕은 신경망, 잔차 기반 적응 기법 및 비중복 영역 분할 방법을 결합한 적응형 신경망 기반 방법을 제시합니다.
低正則解を持つ偏微分方程式を効率的に解くために、領域分割法と多重スケールニューラルネットワークを組み合わせた適応型ニューラルネットワーク基底法を提案する。
본 논문은 프롬프트를 이용하여 유한한 크기의 트랜스포머 모델이 모든 계산 가능한 함수를 표현하고 실행할 수 있음을 증명하여, 프롬프트가 튜링 완전성을 지닌다는 것을 보여줍니다.
This paper proposes a novel adaptive neural network basis method (ANNB) for efficiently solving second-order partial differential equations (PDEs) with low-regularity solutions, leveraging domain decomposition, multi-scale neural networks, and residual-based adaptation to achieve high accuracy in two and three dimensions.
有限サイズのTransformerでも、適切なプロンプトを入力することであらゆる計算可能な関数を表現できる、つまりチューリング完全であることが証明されました。これは、プロンプトによって単一のTransformerが効率的に普遍性を獲得できることを示しており、プロンプトエンジニアリングの実践的な裏付けとなります。
本研究利用本質維度和資訊不平衡兩種幾何性質分析變分自編碼器的隱層表徵,發現當瓶頸層大小超過數據的本質維度時,變分自編碼器的行為會發生顯著變化,資訊處理機制也會發生質變,並可藉此區分訓練過程中的兩個不同階段。
딥러닝 모델의 과잉 확신 문제는, 라벨이 이미지 내용을 제대로 반영하지 못하는 비정형 데이터를 모델이 과적합하면서 발생할 수 있다. 이 문제를 해결하기 위해, 데이터의 정형성을 기반으로 학습 방식을 차별화하여 신뢰도 점수의 안정성을 높이는 방법론이 제시되었다.