本研究では、Twitter、Reddit、Instagramの3つのソーシャルメディアプラットフォームにわたって社会ボットを検出する多様なプラットフォームにわたる検出器を提案する。不完全なデータ入力、最小限の特徴量抽出、各データフィールドに最適化された分類器、分類判定のしきい値設定の必要性の排除などの設計上の工夫により、複数のプラットフォームにわたって汎用的に適用できる検出器を実現している。また、ユーザー名のエントロピーや相互作用数(リツイート/共有)が社会ボットの判別に重要な要因であることを明らかにした。最後に、この検出器を2020年の米国大統領選の分析に適用し、プラットフォームの違いによる社会ボットの振る舞いの差異を示した。
黒箱分類器の出力を校正し、基準データセットと目標データセットの間の安定性を仮定することで、オンラインコメントの毒性度合いを正確に推定することができる。
LLMsは、Redditの r/Ask{Topic}コミュニティで投稿された事実駆動型の質問に対する人間の回答を、高評価の回答に対してはうまくモデル化できるが、低評価の回答に対してはうまくモデル化できない。
提案手法TARDは、社会メディアの多様性に起因する分布シフトの問題に対処するため、伝播グラフに基づくテスト時適応フレームワークを導入し、モデルの適応性と堅牢性を大幅に向上させる。