連邦学習システムに対して、攻撃者は既存の防御策を回避しつつ、グローバルモデルの精度を精密に制御することができる。
太陽光発電インバータの内部センサーは1 GHz以上の電磁干渉に脆弱であり、これにより誤った測定値を生み出し、制御アルゴリズムを欺くことができる。
フェデレーティッド学習における勾配逆転攻撃を改善するDLG-FB手法を提案し、従来手法と比較して攻撃成功率と必要反復数を大幅に改善した。
コピー検出パターンの認証のための理論的フレームワークを提案し、様々な基準に基づいて信頼性と有効性を保証する。
ODRL ポリシーに実行可能性を付与するための新しいアプローチを提案する。
工業自動化システムのセキュリティを強化するために、システムの資産とインターフェースを網羅的に特定し分類する体系的なアプローチが必要である。
大規模言語モデルに対する隠れた多回ターンのジェイルブレイク攻撃の脆弱性を明らかにし、その対策を提案する。
脳-コンピュータインターフェース(BCI)の設計における倫理的、法的、政策的課題を明らかにし、これらの課題がBCIアーキテクチャの設計に与える影響について説明する。
大規模言語モデルは偽情報の生成と検出の両面で重要な役割を果たすが、その能力には差異がある。一部のモデルは偏見を含む偽情報を容易に生成できるが、他のモデルは安全性プロトコルに従って拒否する。一方、大規模モデルは一般的に偽情報の検出能力が優れており、人間が書いた偽情報よりもLLMが生成した偽情報の方が検出されにくい。
人工知能システムにも人間と同様の偏見が存在し、それが公平な意思決定を阻害する可能性がある。