toplogo
Đăng nhập

ゲーム内のトラッシュトークを検出するために事前学習された言語モデルを微調整する


Khái niệm cốt lõi
オンラインゲーム内の有害な行動とコミュニケーションに焦点を当て、事前学習された言語モデルの有望な可能性を探る。
Tóm tắt
  • オンラインゲームでの有害行動とコミュニケーションに関連する一般的な問題について議論。
  • 事前学習されたBERTおよびGPT言語モデルの性能評価と使用方法。
  • データ収集、処理、分析手法の詳細。
  • BERTとGPT-3の比較結果とテスト予測パフォーマンス。
  • GPT-3が最も優れた性能を示し、トラッシュトークや有害チャットの検出における有望な可能性を確認。

Introduction

  • オンラインハラスメントや毒性行動が広く存在し、多くのプレイヤーに影響を与えていることが報告されている。
  • 異なる報告書や研究から得られた情報を元に、オンラインヘイトスピーチや毒性がプレイヤーのパフォーマンスや健康全般に与える影響について議論。

Methods

  • OpenDotaの公開APIから収集したデータセットを使用して、BERTおよびGPT言語モデルを微調整して毒性チャットを検出。

Results

  • データ処理と分析結果。非毒性、軽度(毒性)、有害チャットメッセージへの分類。
  • BERT(Base)およびBERT(Large)、GPT-3モデルのテスト予測結果。
edit_icon

Tùy Chỉnh Tóm Tắt

edit_icon

Viết Lại Với AI

edit_icon

Tạo Trích Dẫn

translate_icon

Dịch Nguồn

visual_icon

Tạo sơ đồ tư duy

visit_icon

Xem Nguồn

Thống kê
オープンドタAPIから約11,074件のチャットメッセージコーパス収集。 BERT(Base)は最後のエポックで2%の訓練損失と89%の精度達成。 BERT(Large)は最後のエポックで14%訓練損失と81%精度達成。
Trích dẫn

Thông tin chi tiết chính được chắt lọc từ

by Daniel Fesal... lúc arxiv.org 03-26-2024

https://arxiv.org/pdf/2403.15458.pdf
Fine-Tuning Pre-trained Language Models to Detect In-Game Trash Talks

Yêu cầu sâu hơn

オンラインコミュニティで毒性行動が増加している要因は何ですか?

オンラインコミュニティでの毒性行動が増加している要因には、匿名性や距離感の欠如、ストレスやフラストレーションなどが挙げられます。オンライン環境では実際の対面コミュニケーションと比較して相手を直接見ずに意見を述べることができるため、一部の人々はより攻撃的な態度を取りやすくなります。さらに、競争的なゲーム環境では勝利や敗北に強い感情が絡み合うため、プレイヤー同士の摩擦や不協和音が生じやすくなります。

この研究結果は他ジャンルへどう応用できますか

この研究結果は他ジャンルへどう応用できますか? この研究結果は他ジャンルでも応用可能です。例えば、SNSプラットフォームやオンラインフォーラムにおける有害なコメントや誹謗中傷の自動検出システムとして活用することが考えられます。また、教育分野では学校内いじめ防止プログラムにも導入することで生徒たちの安全を確保し、ポジティブな学習環境を促進する助けとなる可能性があります。

言語モデル技術は他分野でも同じような問題解決に役立ちますか

言語モデル技術は他分野でも同じような問題解決に役立ちますか? 言語モデル技術は他分野でも同様の問題解決に役立つ可能性があります。例えば、医療分野では臨床記録から副作用報告を抽出したり、法律業界では契約書から重要事項を特定したりする際に言語処理技術を活用することで効率化された作業フローを実現できるかもしれません。さまざまな文書形式から情報抽出し精度向上させてタスク遂行能力向上します。
0
star