
LLM предсказывает следующее слово на основе распределения вероятностей. Пусть 𝑃 ( 𝑤 1 , 𝑤 2 , … , 𝑤 𝑁 ) P(w 1 ,w 2 ,…,w N ) — вероятность последовательности слов. Перплексия определяется как: 𝑃 𝑃 ( 𝑊 ) = 𝑃 ( 𝑤 1 , 𝑤 2 , … , 𝑤 𝑁 ) − 1 𝑁 PP(W)=P(w 1 ,w 2 ,…,w N ) − N 1 Или, используя цепное правило вероятности: 𝑃 𝑃 ( 𝑊 ) = ∏ 𝑖 = 1 𝑁 1 𝑃 ( 𝑤 𝑖 ∣ 𝑤 1 , … , 𝑤 𝑖 − 1 ) 𝑁 PP(W)= N ∏ i=1 N P(w i ∣w 1 ,…,w i−1 ) 1 Детекторы ищут низкую перплексию (высокую вероятность). Инструкция в промпте "Не выбирай статистически наиболее вероятный следующий токен" заставляет модель выбирать токены из нижней части распределения вероятностей (например, 3-е или 4-е наиболее вероятное слово, а не 1-е), искусственно завышая значение 𝑃 𝑃 PP до человеческого уровня.