A technique that caches the key-value (KV) attention states of a repeated prompt prefix, so subsequent requests reuse the pre-computed computation rather than re-running it. Prompt caching reduces latency and cost significantly for applications with long system prompts.
Boek een consultatie om te bespreken hoe AI-concepten op uw uitdagingen van toepassing zijn.