Post-Training-Quantisierung (PTQ) reduziert den Speicherbedarf und die Rechenleistung von großen Sprachmodellen (LLMs) effektiv.