toplogo
로그인

人々が「AI」システムを信頼する動機は何ですか?


핵심 개념
人々が「AI」システムを信頼する理由には、人間の好み、ブラックボックス、OPSEC、および「邪悪な世界、従順なコンピューター」の4つの論理がある。
초록

この論文は、450人以上の回答者から得られた3000以上のオープンテキスト回答に基づいて、「AI」技術に対する現在の意見と考え方に焦点を当てています。人々が「AI」システムを信頼する理由として、人間の好み、ブラックボックス、OPSEC、および「邪悪な世界、従順なコンピューター」という4つの論理が提供されます。これらの論理は、「AI」システムを開発および設計するデザイナーや開発者にとって重要であり、技術的システムへの信頼度を評価し受け入れられる方法を研究する学者にも関連しています。

edit_icon

요약 맞춤 설정

edit_icon

AI로 다시 쓰기

edit_icon

인용 생성

translate_icon

소스 번역

visual_icon

마인드맵 생성

visit_icon

소스 방문

통계
「Judyは主に直接指示で動作します。」(P263, M, UK, 26-30) 「Dementia is scary but so are both of these apps, they just lead you up the Google diagnose path.」(P225. F, England, 66+) 「Neither [of the systems]. Legal professionals should not use AI.」(P393, F, UK, 31-35)
인용구
"I’d prefer to not use AI in neither. Justice should be at the hands of people, not AI." (P35, Non-binary, Portugal, 21-25) "The first is pure totalitarian shit: easily converted into Big Brother." (P278, No answer, No answer, No answer)

핵심 통찰 요약

by Nanna Inie 게시일 arxiv.org 03-12-2024

https://arxiv.org/pdf/2403.05957.pdf
What Motivates People to Trust 'AI' Systems?

더 깊은 질문

どうして一部の参加者は人間よりも機械を信頼しない傾向があると思われますか?

一部の参加者が人間よりも機械を信頼しない傾向がある理由には、複数の要因が考えられます。まず、人間は感情や直感など非論理的な要素を持ち、時に誤った判断を下す可能性があります。それに対し、機械はデータやアルゴリズムに基づいて客観的な結果を出すことが期待されるため、信頼性が高いと捉えられることがあります。 さらに、過去の経験や先入観からくる偏見も影響している可能性があります。特定の技術や分野で負の経験をした場合、そのイメージから全体的な信頼度への影響が生じることも考えられます。また、「AI」技術自体への不正確な知識や認識もこの傾向を助長する要因として挙げられます。

技術的透明性が信頼性に与える影響は何ですか?

技術的透明性は「AI」システムの信頼性に大きく影響します。ユーザーがシステム内部で何が起きているか理解しやすければする程、そのシステムに対する信頼度は高まります。透明性を持つシステムでは利用者自身でも出力内容や意思決定プロセスを追跡・評価できるため、「ブラックボックス」と呼ばれる不可解さから来る疑念や不安感を和らげられます。 また、技術的透明性はエキスパート知識(ドメイン知識)および専門家レベルで使用されていなければ十分評価され得ません。「AI」システム内部プロセスおよびデータ・アルゴリズム等全般公開化・説明可能化する事でトラストウォースィネッサー(Trustworthiness)増強効果及多岐面上昇します。

この研究結果は今後の「AI」システム開発や使用にどのような影響を与える可能性

この研究結果から得られた洞察は、「AI」システム開発およ使用段階両方面重要示唆提供します。 開発:設計段階では利用者ニーズ把握だけでは無く,各種Rationales(根拠)取辛点把握必然です.例: Human favoritism rationale, Black box rationale, OPSEC rationale 等.これ些々ポイント製品改善目指す 使用:守秘義務保持,個人情報保護等法令遵守以外,Transparency (透明度), Expertise (専門家), Risk Assessment (リクアサメント)等具現在地埃監査手法活用必然.これ些々ポイント通じ安心感増強及ビジョン広範囲展望促成有望です. 以上所述示唆通じ次世代「AI」技術更良質普及推移予測有望です.
0
star