本稿は、ソーシャルメディアにおける毒性コンテンツの検閲に関する研究論文である。
研究目的
ソーシャルメディアの普及に伴い、誹謗中傷やヘイトスピーチなどの毒性コンテンツが深刻な問題となっている。従来の毒性コンテンツ検閲ツールは、検出機能のみに焦点を当てているものが多く、ユーザーは検出結果に対する理解やコンテンツ修正に課題を抱えていた。本研究では、これらの課題に対処するため、説明可能な検出機能とパーソナライズされた修正機能を備えた包括的な毒性検閲ツール「DeMod」を開発することを目的とする。
方法
まず、中国のソーシャルメディアプラットフォームであるWeiboユーザーを対象に、毒性コンテンツ検閲に関するニーズ調査を実施した。その結果に基づき、5つの設計目標(包括的な検閲機能の提供、詳細な検出結果の提供、解釈可能性の強化、パーソナライズされた修正候補の提示、ユーザーコントロールの確保)を策定した。これらの設計目標を達成するため、ChatGPTをベースとした毒性検出モジュールとパーソナライズされた修正モジュールを備えたDeModを開発した。毒性検出モジュールは、毒性コンテンツの分類(毒性あり/なし)と毒性を引き起こすキーワードの特定を行い、さらに、即時的な説明と動的な説明を提供する。パーソナライズされた修正モジュールは、ユーザーの過去の投稿履歴に基づいて、元のセマンティクスとユーザーのパーソナライズされた言語スタイルを維持しながら、毒性コンテンツを修正する候補を提示する。
主な結果
Weiboユーザー35名を対象にDeModの評価実験を実施した結果、DeModは高い検出精度と修正精度を達成し、ユーザーから高い評価を得た。具体的には、毒性検出の精度において、DeModはPerspective APIよりも有意に高い精度を達成した。また、毒性修正においては、DeModによる修正後、毒性サンプルの割合が94.38%減少した。
結論
本研究で開発したDeModは、ソーシャルメディアにおける毒性コンテンツの検閲において、ユーザーのニーズを満たす有効なツールであることが示唆された。
意義
本研究は、説明可能なAIとパーソナライズされた技術を用いることで、ソーシャルメディアにおける毒性コンテンツ検閲の質を向上させることができることを示した。
限界と今後の研究
本研究では、中国語のソーシャルメディアプラットフォームであるWeiboを対象としたため、他の言語やプラットフォームへの適用可能性については検討の余地がある。また、毒性コンテンツの定義や検出基準は、文化や社会規範によって異なるため、DeModを他の文化圏で使用する際には、適切な調整が必要となる可能性がある。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問