Google komprimiert LLM-Cache auf 3 Bit ohne Genauigkeitsverlust

📌 ORIGINAL QUELLE:
🔗 heise.de

Quelle: Heise Online

Googles TurboQuant drückt den KV-Cache großer Sprachmodelle auf 3 Bit. Die Genauigkeit soll bleiben, die Geschwindigkeit sich vervielfachen.