核心概念
Ein neues Paradigma für die universelle medizinische Bildsegementation, bei dem mit nur einem einzigen Prompt-Bild eine neue Aufgabe erfasst werden kann.
要約
Dieser Artikel stellt ein neues Paradigma für die universelle medizinische Bildsegementation vor, das als "One-Prompt Segmentation" bezeichnet wird. Im Gegensatz zu herkömmlichen interaktiven oder wenigen/einmaligen Lernmethoden benötigt das One-Prompt-Modell bei der Inferenz nur ein einziges Prompt-Bild, um eine neue Aufgabe zu erfassen und ohne weitere Anpassung oder Feinabstimmung gut zu lösen, selbst wenn die Aufgabe stark von denen abweicht, die während des Trainings auftraten.
Der Erfolg des One-Prompt-Modells wird durch drei Schlüsselfaktoren angetrieben:
- Die Entwicklung neuartiger One-Prompt Former-Module als Modell-Decoder, die es effizient ermöglichen, das Prompt-Merkmal in den Segmentierungsprozess des Abfrage-Bildes zu integrieren.
- Die Sammlung einer großen Datenmenge von 78 Open-Source-Datensätzen aus verschiedenen biomedizinischen Bereichen, von denen 64 Datensätze zum Training verwendet wurden. Zusätzlich wurden über 3.000 Prompt-Annotationen von Ärzten erstellt.
- Die Unterstützung von vier verschiedenen Prompt-Typen (Klick, Bounding-Box, Doodle und SegLab), um den speziellen medizinischen Zielen besser gerecht zu werden.
Das One-Prompt-Modell zeigt in umfangreichen Experimenten eine überlegene Null-Schuss-Segmentierungsleistung im Vergleich zu einer Vielzahl verwandter Methoden. Es übertrifft auch interaktive Segmentierungsmodelle, die für jedes Bild einen Prompt benötigen. Darüber hinaus ist das One-Prompt-Modell deutlich effizienter als herkömmliche vollüberwachte oder wenige/einmalige Lernmethoden, da es nur einmal für alle nachgelagerten Aufgaben trainiert werden muss.
統計
Das One-Prompt-Modell wurde auf 64 Datensätzen trainiert, die insgesamt 78 Open-Source-Datensätze umfassen.
Über 3.000 Prompt-Annotationen wurden von Ärzten erstellt.
引用
"One-Prompt Segmentation combines the strengths of one-shot and interactive methods."
"One-Prompt Model only needs the users to prompt one image to grasp the task, which is notably cost-effective comparing with interactive and few-shot segmentation."