核心概念
本文將轉移路徑採樣演算法推廣至 Run-and-Tumble 粒子,並探討了此類粒子在克服能量障礙以尋找目標時的行為。
簡介
本文介紹了一種適用於 Run-and-Tumble 粒子 (RTP) 的轉移路徑採樣 (TPS) 演算法,並探討了此類粒子在克服能量障礙以尋找目標時的行為。RTP 是一種活躍粒子模型,其運動軌跡由持續時間呈指數分佈的被動和主動階段交替組成。在主動階段,粒子以恆定速度沿特定方向自推進,而在被動階段,粒子則進行標準的平移擴散。
方法
TPS 演算法是一種基於蒙地卡羅採樣的增強採樣技術,用於有效地生成反應軌跡的馬可夫鏈。該演算法通過從現有軌跡中選擇一個隨機點(稱為「射擊點」),並向前和向後整合運動方程式,直到新軌跡到達反應物或目標區域,從而生成新的反應軌跡。新軌跡的接受或拒絕基於 Metropolis 接受概率,該概率確保了反應軌跡空間中的詳細平衡條件。
由於 RTP 缺乏微觀可逆性,因此需要定義適當的向後動力學,並推導出一致的接受概率,以便在 TPS 方案中對反應路徑系綜進行採樣。本文提出了一種向後動力學,其中自推進方向首先被更新,然後在更新粒子的位置時使用。
結果與討論
通過將 TPS 演算法獲得的結果與直接整合 Langevin 運動方程式獲得的結果進行比較,驗證了該演算法的有效性。研究結果表明,RTP 的目標搜尋行為表現出豐富的現象學,具體取決於決定兩個階段平均持續時間的速率。
當被動階段和主動階段的平均持續時間相當時,RTP 的目標搜尋行為類似於具有較大(有效)擴散係數的標準被動布朗粒子。然而,當主動階段的平均持續時間遠大於被動階段的平均持續時間時,RTP 的行為更類似於 ABP,其反應軌跡中粒子會在能量壁上「衝浪」一段時間,然後才落入目標盆地。
有趣的是,RTP 在主動階段和被動階段之間的頻繁切換可以顯著減少平均轉移路徑時間,這歸因於自推進方向在翻滾事件期間的隨機化。這種隨機化使 RTP 能夠更容易地從能量壁上脫離,從而增加了從反應物到目標相對筆直的路徑的頻率,並提高了其到達目標的總體機率。
結論
本文將 TPS 演算法推廣至 RTP,這為研究活躍粒子的目標搜尋行為提供了一種強大的工具。研究結果表明,翻滾是減少平均轉移路徑時間的有效方法,這對理解活躍粒子在各種實際場景中的行為具有重要意義。
統計資料
平均轉移路徑時間在被動階段到主動階段的速率為 0.2/τ 且主動階段到被動階段的速率為 0.7/τ 時達到最小值,約為 8.5τ。
純被動粒子的平均轉移時間約為 12.3τ。
ABP 粒子的平均轉移時間約為 33.18τ。