LLMs müssen mit menschlichen Erwartungen ausgerichtet werden, um Sicherheit und Nützlichkeit zu gewährleisten.