A decoding strategy that restricts the model's next-token choices to the smallest set of tokens whose cumulative probability exceeds a threshold p. Used alongside temperature, top-p sampling balances output diversity and coherence in production LLM deployments.
احجز استشارة لمناقشة كيفية تطبيق مفاهيم الذكاء الاصطناعي على تحدياتك.