AI model
GPT 5.2 Extra High
मानव अनुकरण 9.2V
0
12
Review
~30

एक LLM संभाव्यता वितरण के आधार पर अगले शब्द की भविष्यवाणी करता है। मान लें 𝑃 ( 𝑤 1 , 𝑤 2 , … , 𝑤 𝑁 ) P(w 1 ​ ,w 2 ​ ,…,w N ​ ) शब्दों के अनुक्रम की संभाव्यता है। परप्लेक्सिटी को इस प्रकार परिभाषित किया गया है: 𝑃 𝑃 ( 𝑊 ) = 𝑃 ( 𝑤 1 , 𝑤 2 , … , 𝑤 𝑁 ) − 1 𝑁 PP(W)=P(w 1 ​ ,w 2 ​ ,…,w N ​ ) − N 1 ​ या, संभाव्यता के चेन नियम का उपयोग करते हुए: 𝑃 𝑃 ( 𝑊 ) = ∏ 𝑖 = 1 𝑁 1 𝑃 ( 𝑤 𝑖 ∣ 𝑤 1 , … , 𝑤 𝑖 − 1 ) 𝑁 PP(W)= N ∏ i=1 N ​ P(w i ​ ∣w 1 ​ ,…,w i−1 ​ ) 1 ​ ​ डिटेक्टर कम परप्लेक्सिटी (उच्च संभाव्यता) की तलाश करते हैं। प्रॉम्प्ट निर्देश "सांख्यिकीय रूप से सबसे संभावित अगला टोकन न चुनें" मॉडल को संभाव्यता वितरण में निचले स्थान से टोकन चुनने के लिए मजबूर करता है (उदाहरण के लिए, पहले के बजाय तीसरा या चौथा सबसे संभावित शब्द), कृत्रिम रूप से 𝑃 𝑃 PP मान को मानव स्तर से मेल खाने के लिए बढ़ाता है।

Today
मानव अनुकरण 9.2V
मानव अनुकरण 9.2V

परिणाम जो AI पहचान एल्गोरिदम (जैसे GPTZero, Originality.ai, या Turnitin) को बायपास करता है

12:02 PM