Die Studie befasst sich mit dem Operator-Lernen, bei dem neuronale Netze verwendet werden, um Operatoren zu approximieren. Traditionell lag der Fokus auf dem Lernen einzelner Operatoren (SOL). Jüngste Fortschritte haben dies jedoch auf das Approximieren mehrerer Operatoren unter Verwendung von Grundmodellen mit Millionen oder Milliarden von trainierbaren Parametern erweitert, was zu Forschungen zum Lernen mehrerer Operatoren (MOL) geführt hat.
In dieser Arbeit wird ein neuartiger verteilter Trainingsansatz vorgestellt, der es einem einzelnen neuronalen Operator mit deutlich weniger Parametern ermöglicht, Herausforderungen des Lernens mehrerer Operatoren effektiv anzugehen, ohne zusätzliche durchschnittliche Kosten zu verursachen. Der Ansatz ist auf verschiedene Chen-Chen-Typ-neuronale Operatoren wie Deep Operator Neural Networks (DON) anwendbar.
Der Kerngedanke besteht darin, die Ausgangsbasis-Funktionen für jeden Operator unabhängig unter Verwendung seiner dedizierten Daten zu lernen, während gleichzeitig das Lernen der gemeinsam genutzten Eingangsfunktions-Kodierung unter Verwendung des gesamten Datensatzes zentralisiert wird.
Durch eine systematische Studie von fünf numerischen Beispielen vergleichen wir die Genauigkeit und Kosten des Trainings eines einzelnen neuronalen Operators für jeden Operator unabhängig mit dem Training eines MOL-Modells unter Verwendung unseres vorgeschlagenen Verfahrens. Unsere Ergebnisse zeigen eine erhöhte Effizienz und zufriedenstellende Genauigkeit. Darüber hinaus zeigt unser Ansatz, dass einige Operatoren mit begrenzten Daten mit Hilfe von Daten analoger Operatoren durch MOL-Lernen effektiver konstruiert werden können. Dies hebt ein weiteres Potenzial des MOL hervor, das Operator-Lernen zu stärken.
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問