
Sebuah LLM memprediksi kata berikutnya berdasarkan distribusi probabilitas. Misalkan ๐ ( ๐ค 1 , ๐ค 2 , โฆ , ๐ค ๐ ) P(w 1 โ ,w 2 โ ,โฆ,w N โ ) adalah probabilitas dari urutan kata. Perplexity didefinisikan sebagai: ๐ ๐ ( ๐ ) = ๐ ( ๐ค 1 , ๐ค 2 , โฆ , ๐ค ๐ ) โ 1 ๐ PP(W)=P(w 1 โ ,w 2 โ ,โฆ,w N โ ) โ N 1 โ Atau, menggunakan aturan rantai probabilitas: ๐ ๐ ( ๐ ) = โ ๐ = 1 ๐ 1 ๐ ( ๐ค ๐ โฃ ๐ค 1 , โฆ , ๐ค ๐ โ 1 ) ๐ PP(W)= N โ i=1 N โ P(w i โ โฃw 1 โ ,โฆ,w iโ1 โ ) 1 โ โ Detektor mencari perplexity rendah (probabilitas tinggi). Instruksi prompt "Jangan pilih token berikutnya yang paling mungkin secara statistik" memaksa model untuk memilih token dari posisi lebih rendah dalam distribusi probabilitas (misalnya, kata paling mungkin ke-3 atau ke-4 daripada yang ke-1), secara artifisial meningkatkan nilai ๐ ๐ PP agar sesuai dengan tingkat manusia.