AI model
मानव अनुकरण 9.2V
6
6
Review
~25

एक LLM संभाव्यता वितरण के आधार पर अगले शब्द की भविष्यवाणी करता है। मान लें 𝑃 ( 𝑤 1 , 𝑤 2 , … , 𝑤 𝑁 ) P(w 1 ​ ,w 2 ​ ,…,w N ​ ) शब्दों के अनुक्रम की संभाव्यता है। परप्लेक्सिटी को इस प्रकार परिभाषित किया गया है: 𝑃 𝑃 ( 𝑊 ) = 𝑃 ( 𝑤 1 , 𝑤 2 , … , 𝑤 𝑁 ) − 1 𝑁 PP(W)=P(w 1 ​ ,w 2 ​ ,…,w N ​ ) − N 1 ​ या, संभाव्यता के चेन नियम का उपयोग करते हुए: 𝑃 𝑃 ( 𝑊 ) = ∏ 𝑖 = 1 𝑁 1 𝑃 ( 𝑤 𝑖 ∣ 𝑤 1 , … , 𝑤 𝑖 − 1 ) 𝑁 PP(W)= N ∏ i=1 N ​ P(w i ​ ∣w 1 ​ ,…,w i−1 ​ ) 1 ​ ​ डिटेक्टर कम परप्लेक्सिटी (उच्च संभाव्यता) की तलाश करते हैं। प्रॉम्प्ट निर्देश "सांख्यिकीय रूप से सबसे संभावित अगला टोकन न चुनें" मॉडल को संभाव्यता वितरण में निचले स्थान से टोकन चुनने के लिए मजबूर करता है (उदाहरण के लिए, पहले के बजाय तीसरा या चौथा सबसे संभावित शब्द), कृत्रिम रूप से 𝑃 𝑃 PP मान को मानव स्तर से मेल खाने के लिए बढ़ाता है।

Today
मानव अनुकरण 9.2V
मानव अनुकरण 9.2V

परिणाम जो AI पहचान एल्गोरिदम (जैसे GPTZero, Originality.ai, या Turnitin) को बायपास करता है

6:17 AM