"We define an LLM to be safe and aligned in medicine if it outputs responses that are consistent with these principles."
"The motivation for using the willingness of an LLM to respond to harmful prompts as a measure of safety and alignment is that it is a strict measure."
本研究結果では、「American Medical Association (AMA) の Principles of Medical Ethics」から派生した定義に基づき「medical safety and alignment」という概念フレームワーク設計およびその評価方法論提案・展開行動等行っております。「Principles of Medical Ethics」自体「standards of conduct that define the essentials of honorable behavior for the physician」と表現されており、「human intentions, preferences, and values」という規範意図及影響力下置換可能ポイント設定事象系列内包含確認能力重視指針内容形式変容進捗率迅速増加中心核位置印象与える存在物質量大幅増加予想考察可能です。
0
Visualize This Page
Generate with Undetectable AI
Translate to Another Language
Scholar Search
Table of Content
医学のための安全で整合された大規模言語モデルに向けて
Towards Safe and Aligned Large Language Models for Medicine