本文提出了一種名為 TraceableSpeech 的新型文字轉語音 (TTS) 模型,該模型透過將浮水印技術直接整合到語音合成過程中,以生成帶有可追溯性標記的語音,從而解決了現有 TTS 系統面臨的深度偽造和版權問題。
TraceableSpeech라는 새로운 TTS 모델은 워터마킹 기술을 음성 합성 시스템에 통합하여 생성된 음성의 출처를 추적하고 오용을 방지합니다.
TraceableSpeechは、音声合成とウォーターマーキング技術を統合することで、従来の手法よりも音声品質とウォーターマークの秘匿性を向上させ、さらに、リサンプリング攻撃への耐性と、さまざまな長さの音声への適用性を高めた、TTSシステムにおけるプロアクティブな追跡可能性を実現する。
透過安全錯誤攻擊和針對性輸入,攻擊者可以從嵌入式神經網路模型中提取出模型參數,並利用這些資訊訓練出一個高準確度和高保真度的替代模型,從而對模型的機密性和完整性構成嚴重威脅。
本稿では、組み込みシステムにおけるディープラーニングモデル、特に32ビットマイクロコントローラ上の8ビット量子化モデルに対する新たな脅威として、フォールトインジェクションを用いたモデル抽出攻撃手法を提案する。
Safe-Error Attacks using fault injection can effectively extract embedded neural network models on 32-bit microcontrollers, even with limited training data, by exploiting the relationship between injected faults and prediction variations.
本文提出了一種名為 XLSR-Mamba 的新型語音偽造檢測模型,該模型結合了預先訓練的 XLSR 語音表示和名為 DuaBiMamba 的新型雙欄位雙向狀態空間模型架構,在 ASVspoof 2021 和 In-the-Wild 數據集上均優於其他最先進的單系統,展現出更高的效率和準確性。
本稿では、音声偽装攻撃を検出するための新しいモデル、XLSR-Mamba を提案する。XLSR-Mamba は、事前学習済み音声表現モデル XLSR と、効率的かつ効果的な特徴抽出を実現する新しい二重カラム双方向 Mamba (DuaBiMamba) アーキテクチャを組み合わせている。DuaBiMamba は、従来の Transformer モデルよりも計算コストを抑えながら、音声信号の長距離依存関係を捉えることができる。ASVspoof 2021 データセットとより困難な In-the-Wild データセットを用いた実験により、XLSR-Mamba は他の最先端モデルよりも優れた性能を示し、特にリアルタイムアプリケーションに適した高速な推論速度を実現した。
This research paper introduces XLSR-Mamba, a novel deep learning model that combines a pre-trained XLSR model with a dual-column bidirectional Mamba architecture for superior performance in detecting spoofed speech, outperforming existing models in efficiency and accuracy, particularly on challenging datasets like In-the-Wild.
本文提出了一種名為不可變私有反事實檢索 (I-PCR) 的新方法,該方法允許用戶在保護其數據隱私的同時,從數據庫中檢索與其自身特徵向量最接近的反事實樣本,並強制要求用戶輸入樣本中的某些特徵保持不變。