แนวคิดหลัก
自然言語プロンプトを悪用した敵対的文書によるシーケンス・ツー・シーケンス関連モデルへの影響を分析。
บทคัดย่อ
ウェブ検索リファラルの重要性とSEOの役割。
ニューラル関連モデルに対するキーワード stuffing の影響。
シーケンス・ツー・シーケンス関連モデルへの攻撃手法とその効果。
大規模言語モデルを使用した文書再構成攻撃。
異なるニューラルモデルにおける攻撃転送可能性。
สถิติ
2019年および2020年TREC Deep Learningトラックでの実験結果に基づく。
BM25は典型的なレキシカルモデルであり、影響を受けないことが示されている。
คำพูด
"Neural networks are vulnerable to adversarial attacks, the perturbation of an input that causes an unexpected bias in a neural model."
"Our findings warn against using neural relevance models in production without a high level of safeguards against such attacks."