Core Concepts
ProFLingoは、大規模言語モデルの独自の決定境界特性を表す敵対的な例を生成することで、オリジナルモデルの固有の指紋を確立し、疑わしいモデルがオリジナルモデルから派生しているかどうかを判断する。
Abstract
本論文では、ProFLingoと呼ばれる大規模言語モデルの著作権保護のための指紋ベースのスキームを提案している。ProFLingoの核心的なアイデアは2つのプロセスから成る:1) 抽出:オリジナルモデルの独自の決定境界を捉える敵対的な例を生成する、2) 検証:疑わしいモデルでそのような敵対的な例が有効であるかを評価する。
ProFLingoは、オリジナルモデルから派生したモデルと無関係なモデルの間で敵対的な例の転移性を低減するように設計されている。実験の結果、ProFLingoは、オリジナルモデルから派生したモデルとそうでないモデルを効果的に区別できることが示された。また、ProFLingoは侵襲的ではなく、黒箱環境で機能し、必要に応じて無制限の敵対的な例を生成できるという利点がある。
Stats
大規模言語モデルLlama-2-7bの学習には3,311,616 GPU時間が必要で、これはAmazon AWS上で1300万ドル以上の費用がかかる。
Llama-2関連モデルはHugging Faceに15,000以上存在し、多くはファインチューニングされたモデルである。
Quotes
「大規模」な性質のため、大規模言語モデルをゼロから訓練するには膨大な計算リソースを消費する。
著作権保護スキームの弱点の1つは侵襲性であり、モデルを変更する必要がある。