この記事では、AIシステムにおける偏見の問題について議論しています。
まず、偏見の軽減のために多様性を増やすことが提案されていますが、それには逆効果になる可能性があることが指摘されています。例えば、障害のある人々のデータを集めすぎると、個人が特定されてしまう恐れがあり、彼らが参加を拒否してしまう可能性があります。また、人種的マイノリティのデータを集めすぎると、それが犯罪予測などの監視に悪用される可能性があります。
つまり、偏見の問題は単に技術的な解決策では不十分であり、社会的な不正義に取り組む必要があるということです。単に表面的な「修正」をするだけでは問題を根本的に解決できません。むしろ、学術界や政府など、あらゆるシステムにおける不正義に取り組む必要があります。
また、AIシステムの設計においては、技術的な側面だけでなく、そのシステムが展開される文脈や、エンドユーザーのニーズを考慮する必要があります。つまり、AIシステムの設計には社会的な要素が不可欠なのです。
最後に、時には、AIシステムを使用しないことが最善の選択肢であることも指摘されています。偏見の軽減だけでは不十分で、時には人間中心のソリューションを検討する必要があります。
In eine andere Sprache
aus dem Quellinhalt
medium.com
Wichtige Erkenntnisse aus
by Nidhi Sinha um medium.com 05-02-2024
https://medium.com/womenintechnology/the-representation-paradox-59e341494f2cTiefere Fragen