Wenn Multimodale LLMs mit Chain-of-Thought-Reasoning auf Adversarische Bilder treffen: Stoppen Sie das Reasoning!
Multimodale Großsprachmodelle (MLLMs) mit Chain-of-Thought-Reasoning (CoT) sind zwar robuster gegen bestehende Angriffsverfahren, aber eine neue Methode, der Stop-Reasoning-Angriff, kann diese zusätzliche Robustheit effektiv umgehen.