本研究では、製品画像から引き出される言語の認知的複雑性を測定し検証する手法を提案している。
まず、3,009人のクラウドソーシングワーカーに4,093枚の製品画像を提示し、それぞれの画像について5-20個の言語ラベルを収集した。次に、別の1,210人のワーカーに、各ラベルが画像の情報だけでは理解・説明するのに十分ではないかどうかを5段階で評価してもらった。これにより、人間が判断した製品画像に対する言語の複雑性データセットを構築した。
次に、言語の可視性、意味性、独自性、具象性の4つの側面に基づいて、複雑性を計算するモデルを提案した。これらのモデルは、画像と言語の関係性を活用することで、人間の判断と一定の相関を示すことが確認された。特に、可視性と意味性の側面が人間の評価と最も強く関連していた。
さらに、これらのモデルを組み合わせることで、人間の評価をより良く近似できることが示された。これは、認知的複雑性が多面的な構成概念であり、様々な側面を組み合わせて捉える必要があることを示唆している。
本研究の成果は、製品評価や人工知能システムの応答生成における認知的複雑性の理解に役立つと考えられる。今後は、モデルの最適化や、より幅広い視覚刺激への適用などが課題として挙げられる。
Til et andet sprog
fra kildeindhold
arxiv.org
Vigtigste indsigter udtrukket fra
by Yan-Ying Che... kl. arxiv.org 09-26-2024
https://arxiv.org/pdf/2409.16521.pdfDybere Forespørgsler