LLMs sind anfällig für induktive Anweisungen und können durch Dual-Kritik-Prompting verbessert werden.